-
Chat Nio 目前已经集成了各大模型供应商,为跟进新模型发展,我们集中此 issue 以记录大家对于新模型服务商的需求和优先级情况
提交未支持的新供应商格式:
**供应商名+API 文档+介绍**
已支持的供应商模型更新格式:
**新模型+API 文档**
我们将根据评论下方表情中的“👍(大拇指)”数作为**优先级**决定支持的先后程度
-
We might need to distinguish APIs for embedding queries and embedding documents/keys in EmbeddingModel.java.
DashScope's embedding service has long provided an input parameter for two types of text…
-
### ⚠️ 搜索是否存在类似issue
- [X] 我已经搜索过issues和disscussions,没有发现相似issue
### 总结
Ollama本地服务目前支持了Qwen、Gemma、Mistral、Codellama等多种大模型,可参考[Ollama支持的模型](https://ollama.com/library)
这里我在现有的项目中做了如下更改以支持Ollama服务…
-
Summary of request: Add a new organization to ROR
Add record:
Name of organization: Zhipu AI (China)
Website: https://www.zhipuai.cn
Domains: zhipuai.cn
Link to publications:
Organization typ…
-
### 🥰 需求描述
目前ZHIPU推出了GLM-4-Flash免费无限次的模型,有需求只显示GLM-4-Flash这个模型调用
### 🧐 解决方案
增加ZHIPU_MODEL_LIST
### 📝 补充信息
_No response_
-
### How are you running AnythingLLM?
AnythingLLM desktop app
### What happened?
I chose Generic Openai settings in the LLM Provider settings and filled in Qwen's API .When chatting, the dialog box …
-
## 一, 推理后一次性返回数据
当前项目下语言模型的调用(适当修改后), 可以做到推理后全量返回.
但是也有些许问题, **使用本地模型时, 会有很多轮对话导致等待时间过长.**
```python
# if not "OPENAI_API_KEY" in os.environ.keys():
# # 使用第三方的语言模型
# if JinaChat_Key:
#…
-
### System Info / 系統信息
操作系统=ubuntu20.04
显卡=4 x v100
model=glm-9b-chat
python=3.11.8
llama-factory=0.8.3
transformers=4.43.3
vllm=0.5.3.post1
### Who can help? / 谁可以帮助到您?
_No response_
### …
-
### 🥰 需求描述
智谱api不支持ipv6,而我的服务器只支持ipv6访问,因此发送url的话模型是无法读取的,因此希望能够在相关逻辑中加入一个判断,如果是智谱系模型,就先将minio中的图片转为base64编码再发送。或者在智谱的模型设置里添加一个是否将图片url转换为base64的开关。
由于不了解lobe的项目结构,我不知道相关的处理逻辑是在哪里的,希望大佬告知一二!
相关…
-
错误:
docker日志:
```
folotoy-1 | 2024-05-22 14:58:33,530 - DEBUG - Received frame type: b'\x01'
folotoy-1 | 2024-05-22 14:59:48,188 - DEBUG - Received /user/folotoy/24d7eb738744/thing/event/pos…