-
### 🥰 需求描述
看起来在最新(v2.13.0)版本的release中,已经加入了对于阿里云模型api的支持,但是我不确定正确的使用方法应该是什么,具体来说:
接口地址应该填入什么呢?(或保持默认?)
接口密钥是否是从[阿里云百炼](https://bailian.console.aliyun.com/?apiKey=1#/api-key)创建?
是否支持qwen-long?qwe…
qNwNp updated
2 months ago
-
### Bug Description
The [dashscope llm module](https://github.com/run-llama/llama_index/blob/main/llama-index-integrations/llms/llama-index-llms-dashscope/llama_index/llms/dashscope/base.py) has the…
-
Here in git it says that it uses gpt 4o, but when testing the tool, it is at 3.5 turbo. Do I need to configure something to use 4o? Thank you very much!
-
### Organization Name
AI/ML API
### Main office location
Estonia, Talinn
### What regions of the world do you serve?
Global
### Business description
We are an AI API provider, giving many AI mo…
-
### 是否已有关于该错误的issue或讨论? | Is there an existing issue / discussion for this?
- [X] 我已经搜索过已有的issues和讨论 | I have searched the existing issues / discussions
### 该问题是否在FAQ中有解答? | Is there an existing ans…
-
## Why do you need it?
contextCache 可以大幅提升长上下文的响应速度。
可以通过 Higress AI 代理插件配置,快速提供有 RAG 能力的服务,并且可以通过 Higress 的 AI Cache 插件进一步降低成本。
## How could it be?
支持配置 cacheid,可以参考 qwen fileId 的实现
…
-
目前有很多自部署API的项目,能否支持一下?
---
**自部署API项目列表**
- **头牌**
- 名称:Kimi Free API
- 开源地址:[https://github.com/LLM-Red-Team/kimi-free-api](https://github.com/LLM-Red-Team/kimi-free-api)
- **大家**
…
-
### System Info / 系統信息
cuda 12.4,transformers框架
### Running Xinference with Docker? / 是否使用 Docker 运行 Xinfernece?
- [ ] docker / docker
- [X] pip install / 通过 pip install 安装
- [ ] installation from …
-
### Evaluation
- [x] Code to clean up Dataset/Map for [HF release](https://github.com/bigscience-workshop/ShadesofBias/blob/master/map_dataset.py)
- [x] Add code to constrain generation to just a f…
-
### 前置确认
- [X] 我确认我运行的是最新版本的代码,并且安装了所需的依赖,在[FAQS](https://github.com/zhayujie/chatgpt-on-wechat/wiki/FAQs)中也未找到类似问题。
### ⚠️ 搜索issues中是否已存在类似问题
- [X] 我已经搜索过issues和disscussions,没有跟我遇到的问题相关的issue
###…