binary-husky / gpt_academic

为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm3等本地模型。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, claude2, moss等。
https://github.com/binary-husky/gpt_academic/wiki/online
GNU General Public License v3.0
65.55k stars 8.06k forks source link

[Feature]: 支持一下ollama吧 #1730

Closed alleniver closed 6 months ago

alleniver commented 6 months ago

Class | 类型

大语言模型

Feature Request | 功能请求

请求支持一下ollama,ollama的生态现在比较好。支持的模型也多,可以考虑支持一下,谢谢!

zerotoone01 commented 6 months ago

ollama serve 命令执行前,先执行下面环境变量,否则其他服务无法访问: export OLLAMA_HOST="0.0.0.0:11434"

v37.4版本是可以直接支持的,改config.py的几个点即可(遵循one-api接口规范): config.py

API_KEY = "ollama-key" LLM_MODEL = "one-api-qwen:14b(max_token=32768)"

API_URL_REDIRECT = {"https://api.openai.com/v1/chat/completions": "http://your_ip:11434/v1/chat/completions"}

AVAIL_LLM_MODELS = ["one-api-qwen:14b(max_token=32768)"]

CUSTOM_API_KEY_PATTERN = "ollama-key"

Menghuan1918 commented 6 months ago

https://github.com/binary-husky/gpt_academic/pull/1740

现在frontier(开发)分支有直接支持ollama的接入了,这样就可以同时接入OpenAI和ollama了

SoDebug commented 5 months ago

ollama serve 命令执行前,先执行下面环境变量,否则其他服务无法访问: export OLLAMA_HOST="0.0.0.0:11434"

v37.4版本是可以直接支持的,改config.py的几个点即可(遵循one-api接口规范): config.py

API_KEY = "ollama-key" LLM_MODEL = "one-api-qwen:14b(max_token=32768)"

API_URL_REDIRECT = {"https://api.openai.com/v1/chat/completions": "http://your_ip:11434/v1/chat/completions"}

AVAIL_LLM_MODELS = ["one-api-qwen:14b(max_token=32768)"]

CUSTOM_API_KEY_PATTERN = "ollama-key"

ollama-key?好像没在ollama文档里面看见这个东西 能详细说说吗

lin-uice commented 4 months ago

llama3 配置: LLM_MODEL = "ollama-llama3(max_token=4096)" AVAIL_LLM_MODELS = ["one-api-claude-3-sonnet-20240229(max_token=100000)", "ollama-llama3(max_token=4096)"] #如果你的模型是llama2,就填llama2,注意:一定不要填错 API_URL_REDIRECT = {"http://localhost:11434/api/chat": "http://:11434/api/chat"}# your address

下面是原因,感兴趣可以看

模型调用的本质.即:request库必须匹配到对应的模型名才可以已正常访问,ollama是一个管理库,而不是名称.

import requests url = 'http://*******:11434/api/chat' data = { "model": "llama3", "messages": [ { "role": "user", "content": "why is the sky blue?" } ] } response = requests.post(url, json=data)

打印响应内容 print(response.text)