fishjar / kiss-translator

A simple, open source bilingual translation extension & Greasemonkey script (一个简约、开源的 双语对照翻译扩展 & 油猴脚本)
https://github.com/fishjar/kiss-translator
GNU General Public License v3.0
2.94k stars 115 forks source link

ollma 403怎么办? #174

Open zero617 opened 3 months ago

zero617 commented 3 months ago

logs: PS C:\Users\60461> ollama serve 2024/08/07 14:40:41 routes.go:1011: INFO server config env="map[OLLAMA_DEBUG:false OLLAMA_FLASH_ATTENTION:false OLLAMA_HOST: OLLAMA_KEEP_ALIVE: OLLAMA_LLM_LIBRARY: OLLAMA_MAX_LOADED_MODELS:1 OLLAMA_MAX_QUEUE:512 OLLAMA_MAX_VRAM:0 OLLAMA_MODELS: OLLAMA_NOHISTORY:false OLLAMA_NOPRUNE:false OLLAMA_NUM_PARALLEL:1 OLLAMA_ORIGINS:[http://localhost https://localhost http://localhost: https://localhost: http://127.0.0.1 https://127.0.0.1 http://127.0.0.1: https://127.0.0.1: http://0.0.0.0 https://0.0.0.0 http://0.0.0.0: https://0.0.0.0: app:// file:// tauri://*] OLLAMA_RUNNERS_DIR:D:\Software\scoop\apps\ollama_cderv\current\ollama_runners OLLAMA_TMPDIR:]" time=2024-08-07T14:40:41.359+08:00 level=INFO source=images.go:740 msg="total blobs: 5" time=2024-08-07T14:40:41.360+08:00 level=INFO source=images.go:747 msg="total unused blobs removed: 0" time=2024-08-07T14:40:41.360+08:00 level=INFO source=routes.go:1057 msg="Listening on 127.0.0.1:11434 (version 0.1.42)" time=2024-08-07T14:40:41.361+08:00 level=INFO source=payload.go:44 msg="Dynamic LLM libraries [cpu_avx cpu_avx2 cuda_v11.3 rocm_v5.7 cpu]" time=2024-08-07T14:40:41.532+08:00 level=INFO source=types.go:71 msg="inference compute" id=GPU-5392dfca-71f5-39f0-f508-c97cd317dd59 library=cuda compute=8.9 driver=12.4 name="NVIDIA GeForce RTX 4060 Ti" total="16.0 GiB" available="14.9 GiB" [GIN] 2024/08/07 - 14:40:50 | 403 | 0s | 127.0.0.1 | POST "/api/generate" [GIN] 2024/08/07 - 14:40:51 | 403 | 0s | 127.0.0.1 | POST "/api/generate" [GIN] 2024/08/07 - 14:40:52 | 403 | 0s | 127.0.0.1 | POST "/api/generate"

fishjar commented 3 months ago

启动ollama时添加一个环境变量即可 OLLAMA_ORIGINS=*

详细解释看这里:https://github.com/ollama/ollama/blob/main/docs/faq.md#how-can-i-allow-additional-web-origins-to-access-ollama

Derkida commented 1 month ago

启动ollama时添加一个环境变量即可 OLLAMA_ORIGINS=*

详细解释看这里:https://github.com/ollama/ollama/blob/main/docs/faq.md#how-can-i-allow-additional-web-origins-to-access-ollama

添加了环境变量仍然403

X-Bird commented 2 weeks ago

你本机命令行启动的时候用这个命令 OLLAMA_ORIGINS="*" ollama serve

然后要测试能不能行的话,另开一个控制台用这个命令

curl http://localhost:11434/api/generate -d '{
  "model": "llama3.2",
  "prompt":"Why is the sky blue?"
}'

测试通过的话就没啥问题

kiss-translator 插件配置的一个选项框需要填Model名字,你需要完全的准确的填准,也就是需要包括版本号

adrianzhang commented 4 days ago

你本机命令行启动的时候用这个命令 OLLAMA_ORIGINS="*" ollama serve

然后要测试能不能行的话,另开一个控制台用这个命令

curl http://localhost:11434/api/generate -d '{
  "model": "llama3.2",
  "prompt":"Why is the sky blue?"
}'

测试通过的话就没啥问题

kiss-translator 插件配置的一个选项框需要填Model名字,你需要完全的准确的填准,也就是需要包括版本号

测试总是报错。都是这样的消息: {"model":"aya:latest","created_at":"2024-11-22T08:36:55.085113053Z","response":",","done":false}

模型本身没问题,用各种ChatGPT兼容界面去连接/v1/chat/completions,让它翻译,都能翻译过来。而且我用的格式就是KISS Ollama设置里面那种,只不过把{{from}}{{to}}{{text}}这些都替换成具体的值。

adrianzhang commented 4 days ago

你本机命令行启动的时候用这个命令 OLLAMA_ORIGINS="*" ollama serve

然后要测试能不能行的话,另开一个控制台用这个命令

curl http://localhost:11434/api/generate -d '{
  "model": "llama3.2",
  "prompt":"Why is the sky blue?"
}'

测试通过的话就没啥问题

kiss-translator 插件配置的一个选项框需要填Model名字,你需要完全的准确的填准,也就是需要包括版本号

看到了另一个issue https://github.com/fishjar/kiss-translator/issues/112 把Ollama相关设置写到ChatGPT那里就可以。