这是一个基于Ollama的Visual Studio扩展。得益于Ollama的本地化部署和强大的LLM(大型语言模型)支持,你可以像使用github copilot一样获得代码提示和建议,但是所有数据都在本地,甚至可以离线运行。
如果此插件对你有帮助,请在marketplace中给我们一个五星评价。
Alt+Q
,这样可以减少正常输入过程中使用Ctrl+C
等组合键被误判为接受预测。详情请查看设置
部分。Ollama
的本地大模型,所有数据都在本地,即使离线也可使用支持自定义使用不同的大模型,您可以自行尝试
支持自定义模型"Fill in the middle" token,可兼容更多大模型
代码自动补全开关,默认关闭
Alt+Q
键接受所有预测数字1-9
,接受前N行预测ESC
键拒绝预测注意!默认使用DeepSeek-Coder:6.7b
大模型,如果显存低于4G,建议使用DeepSeek-Coder
模型,显存8G及以上建议使用DeepSeek-Coder:6.7b
。
显存低于16G,不建议聊天
和代码补全
使用不同的大模型,这样会导致Ollama
服务器频繁加载不同模型导致响应缓慢,影响体验。
支持设置模型响应语言为中文或者英文(需模型支持)
非常感谢他们提供的优秀工具。