cfanbo / cfanbo.github.io

1 stars 0 forks source link

为 zed IDE 设置自定义 LLM provider | 学习笔记 #278

Open cfanbo opened 1 week ago

cfanbo commented 1 week ago

https://blog.haohtml.com/posts/custom-llm-provider-for-zed/

在Zed IDE中,默认只支持以下几种 providers : Zed AI (Configured by default when signed in) Anthropic GitHub Copilot Chat 1 Google AI 1 Ollama OpenAI 这对于国内开发者来说,由于政策原因,想使用起来可能借助一些科学上网的方法,这就有点麻烦了。另外国内几种大模型公司也都提供了一定的免费额度的 tokens,如果可以在Zed 里集成国内几家的大模型,也是一个不错的主意。 几个月前通过自定义Endpoint 方法,试图绕过官方不允放国内用户使用的问题,但没有成功。今天重新试了一下设置方法仍是无效,本想打算在官方仓库里开发一个自定义provider的功能,就是感觉着有点麻烦,但有点担心个人电脑过旧,编译是一个问题,于是重新在issue里找到一个解决办法 https://github.com/zed-industries/zed/pull/13276,就是设置起来有点麻烦。 本文将其记录设置方法整理一下。 配置 settings.json 首先配置 settings.json 里的 assistant 和 language_models 。 这里以 DeepSeek 为例,完整的内容如下 { "assistant": { "default_model": { "provider": "openai", "model": "deepseek-chat" }, "enabled": true, "provider": { "name": "openai", "default_model": { "custom": { "max_tokens": 32000, "name": "deepseek-chat" } }, "available_models": [ { "custom": { "name": "deepseek-chat", "max_tokens": 32000 } }, { "custom": { "name": "deepseek-code", "max_tokens": 32000 } } ], "api_url": "https://api.