Closed VectorZhao closed 9 months ago
最新版本在树莓派上部署依旧报错, arm架构
standard_init_linux.go:228: exec user process caused: exec format error
standard_init_linux.go:228: exec user process caused: exec format error
standard_init_linux.go:228: exec user process caused: exec format error
https://github.com/reeink/gpt_academic/pkgs/container/gpt_academic_nolocal 我对CI稍微修改了一下之后编译了arm64和amd64的nolocal镜像。如果还需要其它的镜像可以对照文档添加不同的架构自动编译。我手头没有arm的硬件,无法测试,你们可以试试有没有出现问题。
https://github.com/reeink/gpt_academic/pkgs/container/gpt_academic_nolocal 我对CI稍微修改了一下之后编译了arm64和amd64的nolocal镜像。如果还需要其它的镜像可以对照文档添加不同的架构自动编译。我手头没有arm的硬件,无法测试,你们可以试试有没有出现问题。
实测arm可以正常运行,但是ip:port无法访问。(部署在vps服务器上)
Running on local URL: http://0.0.0.0:12303
To create a public link, set share=True
in launch()
.
version: '3'
services:
gpt_academic_nolocalllms:
image: ghcr.io/reeink/gpt_academic_nolocal:master
environment:
# 请查阅 `config.py` 以查看所有的配置信息
API_KEY: ' sk-th17xxxxxxxxxx '
USE_PROXY: ' False '
proxies: ' { "http": "socks5h://localhost:10880", "https": "socks5h://localhost:10880", } '
API_URL_REDIRECT: ' '
LLM_MODEL: ' azure-gpt-3.5 '
AVAIL_LLM_MODELS: ' ["gpt-3.5-turbo", "azure-gpt-3.5", "gpt-3.5-turbo-16k"] '
WEB_PORT: ' 12303 '
ADD_WAIFU: ' True '
# THEME: ' Chuanhu-Small-and-Beautiful '
# DEFAULT_WORKER_NUM: ' 10 '
AUTHENTICATION: ' '
AUTO_CLEAR_TXT: 'True'
AZURE_ENDPOINT: ''
AZURE_ENGINE: 'gpt-3.5-turbo-16k'
XFYUN_APPID: ''
XFYUN_API_SECRET: ''
XFYUN_API_KEY: ''
HUGGINGFACE_ACCESS_TOKEN: ''
GROBID_URLS: ''
# 与宿主的网络融合
network_mode: "host"
# 不使用代理网络拉取最新代码
command: >
bash -c "python3 -u main.py"
服务器端口已经全部开放,部署的其他容器可以正常访问。
很奇怪,amd64的版本web界面也无法启动,但是理论上不应该影响amd64的镜像的。 可能原因是我fork的那个分支有问题或者我环境变量配置错误了,这个代码库没有发版,不好找以前的docker镜像,等有时间再看看。我看现在作者还在更新代码,最新版的镜像我好像也启动不了🥲
很奇怪,amd64的版本web界面也无法启动,但是理论上不应该影响amd64的镜像的。 可能原因是我fork的那个分支有问题或者我环境变量配置错误了,这个代码库没有发版,不好找以前的docker镜像,等有时间再看看。我看现在作者还在更新代码,最新版的镜像我好像也启动不了🥲
作者最新的x86架构,我这里web界面可以访问
我刚才又试了一下,amd64版本是可以正常运行的,另外我同步了最新提交重新编译了一次,也是可以的。因为没有arm的机器,所以还是无法测试另一个镜像,只能你再测试一下看看arm的可不可以了。
如果不能的话,可以试试在arm机器上能不能使用源码运行,确定一下有没有库不兼容的问题。
还是不行。源码运行稍微麻烦一些。
[ENV_VAR] 尝试加载proxies,默认值:None --> 修正值: { "http": "socks5h://localhost:10880", "https": "socks5h://localhost:10880", }
[ENV_VAR] 成功读取环境变量proxies
[ENV_VAR] 尝试加载USE_PROXY,默认值:False --> 修正值: False
[ENV_VAR] 成功读取环境变量USE_PROXY
[PROXY] 网络代理状态:未配置。无代理状态下很可能无法访问OpenAI家族的模型。建议:检查USE_PROXY选项是否修改。
None of PyTorch, TensorFlow >= 2.0, or Flax have been found. Models won't be available and only tokenizers, configuration and file/data utilities can be used.
[ENV_VAR] 尝试加载API_URL_REDIRECT,默认值:{} --> 修正值: {}
[ENV_VAR] 成功读取环境变量API_URL_REDIRECT
[ENV_VAR] 尝试加载AZURE_ENDPOINT,默认值:https://你亲手写的api名称.openai.azure.com/ --> 修正值:
[ENV_VAR] 成功读取环境变量AZURE_ENDPOINT
[ENV_VAR] 尝试加载AZURE_ENGINE,默认值:填入你亲手写的部署名 --> 修正值:gpt-3.5-turbo-16k
[ENV_VAR] 成功读取环境变量AZURE_ENGINE
[ENV_VAR] 尝试加载AVAIL_LLM_MODELS,默认值:['gpt-3.5-turbo-16k', 'gpt-3.5-turbo', 'azure-gpt-3.5', 'api2d-gpt-3.5-turbo', 'gpt-4', 'api2d-gpt-4', 'chatglm', 'moss', 'newbing', 'stack-claude'] --> 修正值: ["gpt-3.5-turbo", "azure-gpt-3.5", "gpt-3.5-turbo-16k"]
[ENV_VAR] 成功读取环境变量AVAIL_LLM_MODELS
[ENV_VAR] 尝试加载LLM_MODEL,默认值:gpt-3.5-turbo --> 修正值: azure-gpt-3.5
[ENV_VAR] 成功读取环境变量LLM_MODEL
[ENV_VAR] 尝试加载WEB_PORT,默认值:-1 --> 修正值: 12303
[ENV_VAR] 成功读取环境变量WEB_PORT
[ENV_VAR] 尝试加载AUTHENTICATION,默认值:[] --> 修正值: []
[ENV_VAR] 成功读取环境变量AUTHENTICATION
[ENV_VAR] 尝试加载AUTO_CLEAR_TXT,默认值:False --> 修正值:True
[ENV_VAR] 成功读取环境变量AUTO_CLEAR_TXT
[ENV_VAR] 尝试加载ADD_WAIFU,默认值:False --> 修正值: True
[ENV_VAR] 成功读取环境变量ADD_WAIFU
所有问询记录将自动保存在本地目录./gpt_log/chat_secrets.log, 请注意自我隐私保护哦!
代理配置 无, 代理所在地:Singapore
[ENV_VAR] 尝试加载API_KEY,默认值:此处填API密钥 --> 修正值: sk-xx
[ENV_VAR] 成功读取环境变量API_KEY
[API_KEY] 本项目现已支持OpenAI和Azure的api-key。也支持同时填写多个api-key,如API_KEY="openai-key1,openai-key2,azure-key3"
[API_KEY] 您既可以在config.py中修改api-key(s),也可以在问题输入区输入临时的api-key(s),然后回车键提交后即可生效。
[API_KEY] 您的 API_KEY 是: sk-th17AQcS53SF*** API_KEY 导入成功
如果浏览器没有自动打开,请复制并转到以下URL:
(亮色主题): http://localhost:12303
(暗色主题): http://localhost:12303/?__theme=dark
正在执行一些模块的预热...
正在加载tokenizer,如果是第一次运行,可能需要一点时间下载参数
加载tokenizer完毕
正在加载tokenizer,如果是第一次运行,可能需要一点时间下载参数
加载tokenizer完毕
Running on local URL: http://0.0.0.0:12303
To create a public link, set `share=True` in `launch()`.
在树莓派4B上运行成功,arm64,web界面正常,我这里是通过nginx反代的。
但是很奇怪的是如果我配置了CUSTOM_API_KEY_PATTERN
docker compose会报错:
ERROR: Invalid interpolation format for "environment" option in service "gpt_academic_nolocalllms": "pk-[a-zA-Z0-9-]+$"
不知道有没有人遇到过,同样的配置在服务器上是可以的。
确实是转义的问题,感谢
好想法树莓派当小鸡用
现在支持了吗
我使用ubuntu(arm64)为基座重新搭了一个docker image,目前在我自己的M1 macbook上使用没有问题,想请各位测试一下,如果可以的话我愿意PR到主项目。https://github.com/jackeyzzz12138/gpt_academic/pkgs/container/gpt_academic_with_latex_arm
我使用ubuntu(arm64)为基座重新搭了一个docker image,目前在我自己的M1 macbook上使用没有问题,想请各位测试一下,如果可以的话我愿意PR到主项目。https://github.com/jackeyzzz12138/gpt_academic/pkgs/container/gpt_academic_with_latex_arm
甲骨文ubuntu20.04上始终无反应,log也是卡主不动.... 模型切换,主题切换,问答等
我使用ubuntu(arm64)为基座重新搭了一个docker image,目前在我自己的M1 macbook上使用没有问题,想请各位测试一下,如果可以的话我愿意PR到主项目。https://github.com/jackeyzzz12138/gpt_academic/pkgs/container/gpt_academic_with_latex_arm
甲骨文ubuntu20.04上始终无反应,log也是卡主不动.... 模型切换,主题切换,问答等
收到了你的问题,我再次尝试了你所说的这些操作,并没有复现出你的报错,所以初步怀疑是否为网络问题或本地配置的问题?
我使用ubuntu(arm64)为基座重新搭了一个docker image,目前在我自己的M1 macbook上使用没有问题,想请各位测试一下,如果可以的话我愿意PR到主项目。https://github.com/jackeyzzz12138/gpt_academic/pkgs/container/gpt_academic_with_latex_arm
甲骨文ubuntu20.04上始终无反应,log也是卡主不动.... 模型切换,主题切换,问答等
收到了你的问题,我再次尝试了你所说的这些操作,并没有复现出你的报错,所以初步怀疑是否为网络问题或本地配置的问题?
感觉国外VPS上不应该会有网络问题,我的配置是 version: "3" services: gpt_academic_full_capability:
image: ghcr.io/jackeyzzz12138/gpt_academic_with_latex_arm:arm
#volumes:
# - /opt/gpt_academic/gpt:/
environment:
# 请查阅 `config.py`或者 github wiki 以查看所有的配置信息
COMPOSE_PROJECT_NAME: " gpt_academic_all "
API_KEY: " sess-ABCDEFT "
CUSTOM_API_KEY_PATTERN: " sess-ABCDEFT "
GEMINI_API_KEY: " ABCDEFT "
LLM_MODEL: " gpt-3.5-turbo "
AVAIL_LLM_MODELS: ' ["gpt-3.5-turbo", "gpt-4", "qianfan", "chatglm", "jittorllms_rwkv", "jittorllms_llama", "qwen"] '
BAIDU_CLOUD_API_KEY: " ABCDEFT "
BAIDU_CLOUD_SECRET_KEY: " ABCDEFT "
BAIDU_CLOUD_QIANFAN_MODEL: " XuanYuan-70B-Chat-4bit "
ADD_WAIFU: " False "
ALIYUN_APPKEY: " ABCDEFT "
ALIYUN_SECRET: " ABCDEFT "
ENABLE_AUDIO: " False "
DEFAULT_WORKER_NUM: " 20 "
WEB_PORT: " 9999 "
THEME: " Chuanhu-Small-and-Beautiful "
LAYOUT: " TOP-DOWN "
AUTHENTICATION: ' [("ABC", "123456")] '
network_mode: "host"
command: >
bash -c "python3 -u main.py"
我使用ubuntu(arm64)为基座重新搭了一个docker image,目前在我自己的M1 macbook上使用没有问题,想请各位测试一下,如果可以的话我愿意PR到主项目。https://github.com/jackeyzzz12138/gpt_academic/pkgs/container/gpt_academic_with_latex_arm
甲骨文ubuntu20.04上始终无反应,log也是卡主不动.... 模型切换,主题切换,问答等
收到了你的问题,我再次尝试了你所说的这些操作,并没有复现出你的报错,所以初步怀疑是否为网络问题或本地配置的问题?
感觉国外VPS上不应该会有网络问题,我的配置是 version: "3" services: gpt_academic_full_capability: #image: ghcr.io/binary-husky/gpt_academic_with_all_capacity:master image: ghcr.io/jackeyzzz12138/gpt_academic_with_latex_arm:arm #volumes: # - /opt/gpt_academic/gpt:/ environment: # 请查阅
config.py
或者 github wiki 以查看所有的配置信息 COMPOSE_PROJECT_NAME: " gpt_academic_all " API_KEY: " sess-ABCDEFT " CUSTOM_API_KEY_PATTERN: " sess-ABCDEFT " GEMINI_API_KEY: " ABCDEFT " LLM_MODEL: " gpt-3.5-turbo " AVAIL_LLM_MODELS: ' ["gpt-3.5-turbo", "gpt-4", "qianfan", "chatglm", "jittorllms_rwkv", "jittorllms_llama", "qwen"] ' BAIDU_CLOUD_API_KEY: " ABCDEFT " BAIDU_CLOUD_SECRET_KEY: " ABCDEFT " BAIDU_CLOUD_QIANFAN_MODEL: " XuanYuan-70B-Chat-4bit " ADD_WAIFU: " False " ALIYUN_APPKEY: " ABCDEFT " ALIYUN_SECRET: " ABCDEFT " ENABLE_AUDIO: " False " DEFAULT_WORKER_NUM: " 20 " WEB_PORT: " 9999 " THEME: " Chuanhu-Small-and-Beautiful " LAYOUT: " TOP-DOWN " AUTHENTICATION: ' [("ABC", "123456")] ' network_mode: "host" command: > bash -c "python3 -u main.py"
上一条的回复有误,我进行了删除。
我测试了你的配置文件在ubuntu 22.04.03 LTS aarch64上并通过IP:端口
连接,进行了切换模型和切换主题等操作仍然未得到复现。
使用其他镜像时没有遇到类似问题吗?
部署在VPS上使用了域名反代等操作吗?
建议查找其他类似issue或者wiki找到VPS常见问题的解决方案进行尝试,也希望得到你的反馈👍
我使用ubuntu(arm64)为基座重新搭了一个docker image,目前在我自己的M1 macbook上使用没有问题,想请各位测试一下,如果可以的话我愿意PR到主项目。https://github.com/jackeyzzz12138/gpt_academic/pkgs/container/gpt_academic_with_latex_arm
甲骨文ubuntu20.04上始终无反应,log也是卡主不动.... 模型切换,主题切换,问答等
收到了你的问题,我再次尝试了你所说的这些操作,并没有复现出你的报错,所以初步怀疑是否为网络问题或本地配置的问题?
感觉国外VPS上不应该会有网络问题,我的配置是 version: "3" services: gpt_academic_full_capability: #image: ghcr.io/binary-husky/gpt_academic_with_all_capacity:master image: ghcr.io/jackeyzzz12138/gpt_academic_with_latex_arm:arm #volumes: # - /opt/gpt_academic/gpt:/ environment: # 请查阅
config.py
或者 github wiki 以查看所有的配置信息 COMPOSE_PROJECT_NAME: " gpt_academic_all " API_KEY: " sess-ABCDEFT " CUSTOM_API_KEY_PATTERN: " sess-ABCDEFT " GEMINI_API_KEY: " ABCDEFT " LLM_MODEL: " gpt-3.5-turbo " AVAIL_LLM_MODELS: ' ["gpt-3.5-turbo", "gpt-4", "qianfan", "chatglm", "jittorllms_rwkv", "jittorllms_llama", "qwen"] ' BAIDU_CLOUD_API_KEY: " ABCDEFT " BAIDU_CLOUD_SECRET_KEY: " ABCDEFT " BAIDU_CLOUD_QIANFAN_MODEL: " XuanYuan-70B-Chat-4bit " ADD_WAIFU: " False " ALIYUN_APPKEY: " ABCDEFT " ALIYUN_SECRET: " ABCDEFT " ENABLE_AUDIO: " False " DEFAULT_WORKER_NUM: " 20 " WEB_PORT: " 9999 " THEME: " Chuanhu-Small-and-Beautiful " LAYOUT: " TOP-DOWN " AUTHENTICATION: ' [("ABC", "123456")] ' network_mode: "host" command: > bash -c "python3 -u main.py"上一条的回复有误,我进行了删除。 我测试了你的配置文件在ubuntu 22.04.03 LTS aarch64上并通过
IP:端口
连接,进行了切换模型和切换主题等操作仍然未得到复现。 使用其他镜像时没有遇到类似问题吗? 部署在VPS上使用了域名反代等操作吗? 建议查找其他类似issue或者wiki找到VPS常见问题的解决方案进行尝试,也希望得到你的反馈👍
这很奇怪,我没有做域名,反代之类的操作 我用另外的镜像,尝试了放多模型也没有问题,但是他的镜像应该并没有做本地模型相关,所以会运行错误,但是GPT3.5和GEMINI是ok的 AVAIL_LLM_MODELS: ' ["gpt-3.5-turbo", "gpt-4","gemini-pro", "qianfan", "chatglm", "jittorllms_rwkv", "jittorllms_llama", "qwen"] ' 我目前再使用的镜像为: image: docker.io/bentwng/gpt_academic_nolocal:latest
我的系统:55~20.04.1-Ubuntu SMP Wed Nov 22 17:38:08 UTC 2023 aarch64 aarch64 aarch64 GNU/Linux
我使用ubuntu(arm64)为基座重新搭了一个docker image,目前在我自己的M1 macbook上使用没有问题,想请各位测试一下,如果可以的话我愿意PR到主项目。https://github.com/jackeyzzz12138/gpt_academic/pkgs/container/gpt_academic_with_latex_arm
甲骨文ubuntu20.04上始终无反应,log也是卡主不动.... 模型切换,主题切换,问答等
收到了你的问题,我再次尝试了你所说的这些操作,并没有复现出你的报错,所以初步怀疑是否为网络问题或本地配置的问题?
感觉国外VPS上不应该会有网络问题,我的配置是 version: "3" services: gpt_academic_full_capability: #image: ghcr.io/binary-husky/gpt_academic_with_all_capacity:master image: ghcr.io/jackeyzzz12138/gpt_academic_with_latex_arm:arm #volumes: # - /opt/gpt_academic/gpt:/ environment: # 请查阅
config.py
或者 github wiki 以查看所有的配置信息 COMPOSE_PROJECT_NAME: " gpt_academic_all " API_KEY: " sess-ABCDEFT " CUSTOM_API_KEY_PATTERN: " sess-ABCDEFT " GEMINI_API_KEY: " ABCDEFT " LLM_MODEL: " gpt-3.5-turbo " AVAIL_LLM_MODELS: ' ["gpt-3.5-turbo", "gpt-4", "qianfan", "chatglm", "jittorllms_rwkv", "jittorllms_llama", "qwen"] ' BAIDU_CLOUD_API_KEY: " ABCDEFT " BAIDU_CLOUD_SECRET_KEY: " ABCDEFT " BAIDU_CLOUD_QIANFAN_MODEL: " XuanYuan-70B-Chat-4bit " ADD_WAIFU: " False " ALIYUN_APPKEY: " ABCDEFT " ALIYUN_SECRET: " ABCDEFT " ENABLE_AUDIO: " False " DEFAULT_WORKER_NUM: " 20 " WEB_PORT: " 9999 " THEME: " Chuanhu-Small-and-Beautiful " LAYOUT: " TOP-DOWN " AUTHENTICATION: ' [("ABC", "123456")] ' network_mode: "host" command: > bash -c "python3 -u main.py"上一条的回复有误,我进行了删除。 我测试了你的配置文件在ubuntu 22.04.03 LTS aarch64上并通过
IP:端口
连接,进行了切换模型和切换主题等操作仍然未得到复现。 使用其他镜像时没有遇到类似问题吗? 部署在VPS上使用了域名反代等操作吗? 建议查找其他类似issue或者wiki找到VPS常见问题的解决方案进行尝试,也希望得到你的反馈👍这很奇怪,我没有做域名,反代之类的操作 我用另外的镜像,尝试了放多模型也没有问题,但是他的镜像应该并没有做本地模型相关,所以会运行错误,但是GPT3.5和GEMINI是ok的 AVAIL_LLM_MODELS: ' ["gpt-3.5-turbo", "gpt-4","gemini-pro", "qianfan", "chatglm", "jittorllms_rwkv", "jittorllms_llama", "qwen"] ' 我目前再使用的镜像为: image: docker.io/bentwng/gpt_academic_nolocal:latest
感谢你的反馈,我的fork仓库镜像是依据方案四的镜像进行修改以支持arm,方案四上说明支持GPT+Latex,可能确实不支持其他大语言模型,我自己本身也只有GPT相关API所以未遇到报错。如果需要其他模型或者本地模型,还是建议选择其他方案。
## ===================================================
## 【方案四】 ChatGPT + Latex
## ===================================================
version: '3'
services:
gpt_academic_with_latex:
image: ghcr.io/binary-husky/gpt_academic_with_latex:master # (Auto Built by Dockerfile: docs/GithubAction+NoLocal+Latex)
environment:
# 请查阅 `config.py` 以查看所有的配置信息
API_KEY: ' sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx '
USE_PROXY: ' True '
proxies: ' { "http": "socks5h://localhost:10880", "https": "socks5h://localhost:10880", } '
LLM_MODEL: ' gpt-3.5-turbo '
AVAIL_LLM_MODELS: ' ["gpt-3.5-turbo", "gpt-4"] '
LOCAL_MODEL_DEVICE: ' cuda '
DEFAULT_WORKER_NUM: ' 10 '
WEB_PORT: ' 12303 '
# 与宿主的网络融合
network_mode: "host"
# 不使用代理网络拉取最新代码
command: >
bash -c "python3 -u main.py"
Class | 类型
None
Feature Request | 功能请求
大佬是不是忘记了在github action添加对arm架构镜像的编译?