binary-husky / gpt_academic

为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm3等本地模型。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, claude2, moss等。
https://github.com/binary-husky/gpt_academic/wiki/online
GNU General Public License v3.0
64.51k stars 7.97k forks source link

[Feature]: docker支持arm架构 #842

Closed VectorZhao closed 9 months ago

VectorZhao commented 1 year ago

Class | 类型

None

Feature Request | 功能请求

大佬是不是忘记了在github action添加对arm架构镜像的编译?

[+] Running 2/1
 ✔ Container chatgpt-academic                                                                                                                                               Created16.7s 
 ! gpt_academic_nolocalllms:The requested image's platform (linux/amd64) does not match the detected host platform (linux/arm64/v8) and no specific platform was requested 0.0s 
Attaching to chatgpt-academic
chatgpt-academic  | exec /bin/bash: exec format error
chatgpt-academic exited with code 1
mufeng510 commented 1 year ago

最新版本在树莓派上部署依旧报错, arm架构

standard_init_linux.go:228: exec user process caused: exec format error
standard_init_linux.go:228: exec user process caused: exec format error
standard_init_linux.go:228: exec user process caused: exec format error
reonokiy commented 1 year ago

https://github.com/reeink/gpt_academic/pkgs/container/gpt_academic_nolocal 我对CI稍微修改了一下之后编译了arm64和amd64的nolocal镜像。如果还需要其它的镜像可以对照文档添加不同的架构自动编译。我手头没有arm的硬件,无法测试,你们可以试试有没有出现问题。

VectorZhao commented 1 year ago

https://github.com/reeink/gpt_academic/pkgs/container/gpt_academic_nolocal 我对CI稍微修改了一下之后编译了arm64和amd64的nolocal镜像。如果还需要其它的镜像可以对照文档添加不同的架构自动编译。我手头没有arm的硬件,无法测试,你们可以试试有没有出现问题。

实测arm可以正常运行,但是ip:port无法访问。(部署在vps服务器上)

Running on local URL: http://0.0.0.0:12303 To create a public link, set share=True in launch().

VectorZhao commented 1 year ago
version: '3'
services:
  gpt_academic_nolocalllms:
    image:  ghcr.io/reeink/gpt_academic_nolocal:master
    environment:
      # 请查阅 `config.py` 以查看所有的配置信息
      API_KEY:                  '    sk-th17xxxxxxxxxx                                          '
      USE_PROXY:                '    False                                                                                           '
      proxies:                  '    { "http": "socks5h://localhost:10880", "https": "socks5h://localhost:10880", }                 '
      API_URL_REDIRECT:         '   '
      LLM_MODEL:                '    azure-gpt-3.5                                                                                  '
      AVAIL_LLM_MODELS:         '    ["gpt-3.5-turbo", "azure-gpt-3.5", "gpt-3.5-turbo-16k"]                    '
      WEB_PORT:                 '    12303                                                                                          '
      ADD_WAIFU:                '    True                                                                                           '
      # THEME:                    '    Chuanhu-Small-and-Beautiful                                                                    '
      # DEFAULT_WORKER_NUM:       '    10                                                                                             '
      AUTHENTICATION:           '                                               '
      AUTO_CLEAR_TXT:           'True'
      AZURE_ENDPOINT: ''
      AZURE_ENGINE: 'gpt-3.5-turbo-16k'
      XFYUN_APPID: ''
      XFYUN_API_SECRET: ''
      XFYUN_API_KEY: ''
      HUGGINGFACE_ACCESS_TOKEN: ''
      GROBID_URLS: ''
    # 与宿主的网络融合
    network_mode: "host"

    # 不使用代理网络拉取最新代码
    command: >
      bash -c "python3 -u main.py"
VectorZhao commented 1 year ago

服务器端口已经全部开放,部署的其他容器可以正常访问。

reonokiy commented 1 year ago

很奇怪,amd64的版本web界面也无法启动,但是理论上不应该影响amd64的镜像的。 可能原因是我fork的那个分支有问题或者我环境变量配置错误了,这个代码库没有发版,不好找以前的docker镜像,等有时间再看看。我看现在作者还在更新代码,最新版的镜像我好像也启动不了🥲

VectorZhao commented 1 year ago

很奇怪,amd64的版本web界面也无法启动,但是理论上不应该影响amd64的镜像的。 可能原因是我fork的那个分支有问题或者我环境变量配置错误了,这个代码库没有发版,不好找以前的docker镜像,等有时间再看看。我看现在作者还在更新代码,最新版的镜像我好像也启动不了🥲

作者最新的x86架构,我这里web界面可以访问

reonokiy commented 1 year ago

我刚才又试了一下,amd64版本是可以正常运行的,另外我同步了最新提交重新编译了一次,也是可以的。因为没有arm的机器,所以还是无法测试另一个镜像,只能你再测试一下看看arm的可不可以了。

如果不能的话,可以试试在arm机器上能不能使用源码运行,确定一下有没有库不兼容的问题。

VectorZhao commented 1 year ago

还是不行。源码运行稍微麻烦一些。

[ENV_VAR] 尝试加载proxies,默认值:None --> 修正值:    { "http": "socks5h://localhost:10880", "https": "socks5h://localhost:10880", }                 
 [ENV_VAR] 成功读取环境变量proxies 
[ENV_VAR] 尝试加载USE_PROXY,默认值:False --> 修正值:    False                                                                                           
 [ENV_VAR] 成功读取环境变量USE_PROXY 
 [PROXY] 网络代理状态:未配置。无代理状态下很可能无法访问OpenAI家族的模型。建议:检查USE_PROXY选项是否修改。 
None of PyTorch, TensorFlow >= 2.0, or Flax have been found. Models won't be available and only tokenizers, configuration and file/data utilities can be used.
[ENV_VAR] 尝试加载API_URL_REDIRECT,默认值:{} --> 修正值:    {}
 [ENV_VAR] 成功读取环境变量API_URL_REDIRECT 
[ENV_VAR] 尝试加载AZURE_ENDPOINT,默认值:https://你亲手写的api名称.openai.azure.com/ --> 修正值:
 [ENV_VAR] 成功读取环境变量AZURE_ENDPOINT 
[ENV_VAR] 尝试加载AZURE_ENGINE,默认值:填入你亲手写的部署名 --> 修正值:gpt-3.5-turbo-16k
 [ENV_VAR] 成功读取环境变量AZURE_ENGINE 
[ENV_VAR] 尝试加载AVAIL_LLM_MODELS,默认值:['gpt-3.5-turbo-16k', 'gpt-3.5-turbo', 'azure-gpt-3.5', 'api2d-gpt-3.5-turbo', 'gpt-4', 'api2d-gpt-4', 'chatglm', 'moss', 'newbing', 'stack-claude'] --> 修正值:    ["gpt-3.5-turbo", "azure-gpt-3.5", "gpt-3.5-turbo-16k"]                    
 [ENV_VAR] 成功读取环境变量AVAIL_LLM_MODELS 
[ENV_VAR] 尝试加载LLM_MODEL,默认值:gpt-3.5-turbo --> 修正值:    azure-gpt-3.5                                                                                  
 [ENV_VAR] 成功读取环境变量LLM_MODEL 
[ENV_VAR] 尝试加载WEB_PORT,默认值:-1 --> 修正值:    12303                                                                                          
 [ENV_VAR] 成功读取环境变量WEB_PORT 
[ENV_VAR] 尝试加载AUTHENTICATION,默认值:[] --> 修正值:    []                                             
 [ENV_VAR] 成功读取环境变量AUTHENTICATION 
[ENV_VAR] 尝试加载AUTO_CLEAR_TXT,默认值:False --> 修正值:True
 [ENV_VAR] 成功读取环境变量AUTO_CLEAR_TXT 
[ENV_VAR] 尝试加载ADD_WAIFU,默认值:False --> 修正值:    True                                                                                           
 [ENV_VAR] 成功读取环境变量ADD_WAIFU 
所有问询记录将自动保存在本地目录./gpt_log/chat_secrets.log, 请注意自我隐私保护哦!
代理配置 无, 代理所在地:Singapore
[ENV_VAR] 尝试加载API_KEY,默认值:此处填API密钥 --> 修正值:    sk-xx                                       
 [ENV_VAR] 成功读取环境变量API_KEY 
 [API_KEY] 本项目现已支持OpenAI和Azure的api-key。也支持同时填写多个api-key,如API_KEY="openai-key1,openai-key2,azure-key3" 
 [API_KEY] 您既可以在config.py中修改api-key(s),也可以在问题输入区输入临时的api-key(s),然后回车键提交后即可生效。 
 [API_KEY] 您的 API_KEY 是: sk-th17AQcS53SF*** API_KEY 导入成功 
如果浏览器没有自动打开,请复制并转到以下URL:
    (亮色主题): http://localhost:12303
    (暗色主题): http://localhost:12303/?__theme=dark
正在执行一些模块的预热...
正在加载tokenizer,如果是第一次运行,可能需要一点时间下载参数
加载tokenizer完毕
正在加载tokenizer,如果是第一次运行,可能需要一点时间下载参数
加载tokenizer完毕
Running on local URL:  http://0.0.0.0:12303
To create a public link, set `share=True` in `launch()`.
mufeng510 commented 1 year ago

在树莓派4B上运行成功,arm64,web界面正常,我这里是通过nginx反代的。 但是很奇怪的是如果我配置了CUSTOM_API_KEY_PATTERN docker compose会报错: ERROR: Invalid interpolation format for "environment" option in service "gpt_academic_nolocalllms": "pk-[a-zA-Z0-9-]+$" 不知道有没有人遇到过,同样的配置在服务器上是可以的。

reonokiy commented 1 year ago

@mufeng510 https://stackoverflow.com/questions/49897503/docker-compose-invalid-interpolation-format-for-environment-option-in-service 也许是这个问题

mufeng510 commented 1 year ago

确实是转义的问题,感谢

myh66 commented 12 months ago

好想法树莓派当小鸡用

VectorZhao commented 11 months ago

现在支持了吗

jackeyzzz12138 commented 9 months ago

我使用ubuntu(arm64)为基座重新搭了一个docker image,目前在我自己的M1 macbook上使用没有问题,想请各位测试一下,如果可以的话我愿意PR到主项目。https://github.com/jackeyzzz12138/gpt_academic/pkgs/container/gpt_academic_with_latex_arm

dycwuxing commented 8 months ago

我使用ubuntu(arm64)为基座重新搭了一个docker image,目前在我自己的M1 macbook上使用没有问题,想请各位测试一下,如果可以的话我愿意PR到主项目。https://github.com/jackeyzzz12138/gpt_academic/pkgs/container/gpt_academic_with_latex_arm

甲骨文ubuntu20.04上始终无反应,log也是卡主不动.... 模型切换,主题切换,问答等

image image
jackeyzzz12138 commented 8 months ago

我使用ubuntu(arm64)为基座重新搭了一个docker image,目前在我自己的M1 macbook上使用没有问题,想请各位测试一下,如果可以的话我愿意PR到主项目。https://github.com/jackeyzzz12138/gpt_academic/pkgs/container/gpt_academic_with_latex_arm

甲骨文ubuntu20.04上始终无反应,log也是卡主不动.... 模型切换,主题切换,问答等 image image

收到了你的问题,我再次尝试了你所说的这些操作,并没有复现出你的报错,所以初步怀疑是否为网络问题或本地配置的问题?

截屏2024-01-09 20 35 09 截屏2024-01-09 20 36 03
dycwuxing commented 8 months ago

我使用ubuntu(arm64)为基座重新搭了一个docker image,目前在我自己的M1 macbook上使用没有问题,想请各位测试一下,如果可以的话我愿意PR到主项目。https://github.com/jackeyzzz12138/gpt_academic/pkgs/container/gpt_academic_with_latex_arm

甲骨文ubuntu20.04上始终无反应,log也是卡主不动.... 模型切换,主题切换,问答等 image image

收到了你的问题,我再次尝试了你所说的这些操作,并没有复现出你的报错,所以初步怀疑是否为网络问题或本地配置的问题?

截屏2024-01-09 20 35 09 截屏2024-01-09 20 36 03

感觉国外VPS上不应该会有网络问题,我的配置是 version: "3" services: gpt_academic_full_capability:

image: ghcr.io/binary-husky/gpt_academic_with_all_capacity:master

image: ghcr.io/jackeyzzz12138/gpt_academic_with_latex_arm:arm
#volumes:
#  - /opt/gpt_academic/gpt:/
environment:
  # 请查阅 `config.py`或者 github wiki 以查看所有的配置信息
  COMPOSE_PROJECT_NAME: "  gpt_academic_all                        "
  API_KEY: "  sess-ABCDEFT                       "
  CUSTOM_API_KEY_PATTERN: "  sess-ABCDEFT                        "
  GEMINI_API_KEY: "  ABCDEFT                        "
  LLM_MODEL: "  gpt-3.5-turbo                                                              "
  AVAIL_LLM_MODELS: '  ["gpt-3.5-turbo", "gpt-4", "qianfan", "chatglm", "jittorllms_rwkv", "jittorllms_llama", "qwen"]       '
  BAIDU_CLOUD_API_KEY: "  ABCDEFT                                                   "
  BAIDU_CLOUD_SECRET_KEY: "  ABCDEFT                                           "
  BAIDU_CLOUD_QIANFAN_MODEL: "  XuanYuan-70B-Chat-4bit                                           "
  ADD_WAIFU: "  False                                                                      "
  ALIYUN_APPKEY: "  ABCDEFT                                                           "
  ALIYUN_SECRET: "  ABCDEFT                                             "
  ENABLE_AUDIO: "  False                                                                      "
  DEFAULT_WORKER_NUM: "  20                                                                         "
  WEB_PORT: "  9999                                                                      "
  THEME: "  Chuanhu-Small-and-Beautiful                                                "
  LAYOUT: "  TOP-DOWN                                                "
  AUTHENTICATION: '    [("ABC", "123456")]                                             '
network_mode: "host"
command: >
  bash -c "python3 -u main.py"
jackeyzzz12138 commented 8 months ago

我使用ubuntu(arm64)为基座重新搭了一个docker image,目前在我自己的M1 macbook上使用没有问题,想请各位测试一下,如果可以的话我愿意PR到主项目。https://github.com/jackeyzzz12138/gpt_academic/pkgs/container/gpt_academic_with_latex_arm

甲骨文ubuntu20.04上始终无反应,log也是卡主不动.... 模型切换,主题切换,问答等 image image

收到了你的问题,我再次尝试了你所说的这些操作,并没有复现出你的报错,所以初步怀疑是否为网络问题或本地配置的问题? 截屏2024-01-09 20 35 09 截屏2024-01-09 20 36 03

感觉国外VPS上不应该会有网络问题,我的配置是 version: "3" services: gpt_academic_full_capability: #image: ghcr.io/binary-husky/gpt_academic_with_all_capacity:master image: ghcr.io/jackeyzzz12138/gpt_academic_with_latex_arm:arm #volumes: # - /opt/gpt_academic/gpt:/ environment: # 请查阅 config.py或者 github wiki 以查看所有的配置信息 COMPOSE_PROJECT_NAME: " gpt_academic_all " API_KEY: " sess-ABCDEFT " CUSTOM_API_KEY_PATTERN: " sess-ABCDEFT " GEMINI_API_KEY: " ABCDEFT " LLM_MODEL: " gpt-3.5-turbo " AVAIL_LLM_MODELS: ' ["gpt-3.5-turbo", "gpt-4", "qianfan", "chatglm", "jittorllms_rwkv", "jittorllms_llama", "qwen"] ' BAIDU_CLOUD_API_KEY: " ABCDEFT " BAIDU_CLOUD_SECRET_KEY: " ABCDEFT " BAIDU_CLOUD_QIANFAN_MODEL: " XuanYuan-70B-Chat-4bit " ADD_WAIFU: " False " ALIYUN_APPKEY: " ABCDEFT " ALIYUN_SECRET: " ABCDEFT " ENABLE_AUDIO: " False " DEFAULT_WORKER_NUM: " 20 " WEB_PORT: " 9999 " THEME: " Chuanhu-Small-and-Beautiful " LAYOUT: " TOP-DOWN " AUTHENTICATION: ' [("ABC", "123456")] ' network_mode: "host" command: > bash -c "python3 -u main.py"

上一条的回复有误,我进行了删除。
我测试了你的配置文件在ubuntu 22.04.03 LTS aarch64上并通过IP:端口连接,进行了切换模型和切换主题等操作仍然未得到复现。
使用其他镜像时没有遇到类似问题吗?
部署在VPS上使用了域名反代等操作吗? 建议查找其他类似issue或者wiki找到VPS常见问题的解决方案进行尝试,也希望得到你的反馈👍

dycwuxing commented 8 months ago

我使用ubuntu(arm64)为基座重新搭了一个docker image,目前在我自己的M1 macbook上使用没有问题,想请各位测试一下,如果可以的话我愿意PR到主项目。https://github.com/jackeyzzz12138/gpt_academic/pkgs/container/gpt_academic_with_latex_arm

甲骨文ubuntu20.04上始终无反应,log也是卡主不动.... 模型切换,主题切换,问答等 image image

收到了你的问题,我再次尝试了你所说的这些操作,并没有复现出你的报错,所以初步怀疑是否为网络问题或本地配置的问题? 截屏2024-01-09 20 35 09 截屏2024-01-09 20 36 03

感觉国外VPS上不应该会有网络问题,我的配置是 version: "3" services: gpt_academic_full_capability: #image: ghcr.io/binary-husky/gpt_academic_with_all_capacity:master image: ghcr.io/jackeyzzz12138/gpt_academic_with_latex_arm:arm #volumes: # - /opt/gpt_academic/gpt:/ environment: # 请查阅 config.py或者 github wiki 以查看所有的配置信息 COMPOSE_PROJECT_NAME: " gpt_academic_all " API_KEY: " sess-ABCDEFT " CUSTOM_API_KEY_PATTERN: " sess-ABCDEFT " GEMINI_API_KEY: " ABCDEFT " LLM_MODEL: " gpt-3.5-turbo " AVAIL_LLM_MODELS: ' ["gpt-3.5-turbo", "gpt-4", "qianfan", "chatglm", "jittorllms_rwkv", "jittorllms_llama", "qwen"] ' BAIDU_CLOUD_API_KEY: " ABCDEFT " BAIDU_CLOUD_SECRET_KEY: " ABCDEFT " BAIDU_CLOUD_QIANFAN_MODEL: " XuanYuan-70B-Chat-4bit " ADD_WAIFU: " False " ALIYUN_APPKEY: " ABCDEFT " ALIYUN_SECRET: " ABCDEFT " ENABLE_AUDIO: " False " DEFAULT_WORKER_NUM: " 20 " WEB_PORT: " 9999 " THEME: " Chuanhu-Small-and-Beautiful " LAYOUT: " TOP-DOWN " AUTHENTICATION: ' [("ABC", "123456")] ' network_mode: "host" command: > bash -c "python3 -u main.py"

上一条的回复有误,我进行了删除。 我测试了你的配置文件在ubuntu 22.04.03 LTS aarch64上并通过IP:端口连接,进行了切换模型和切换主题等操作仍然未得到复现。 使用其他镜像时没有遇到类似问题吗? 部署在VPS上使用了域名反代等操作吗? 建议查找其他类似issue或者wiki找到VPS常见问题的解决方案进行尝试,也希望得到你的反馈👍

这很奇怪,我没有做域名,反代之类的操作 我用另外的镜像,尝试了放多模型也没有问题,但是他的镜像应该并没有做本地模型相关,所以会运行错误,但是GPT3.5和GEMINI是ok的 AVAIL_LLM_MODELS: ' ["gpt-3.5-turbo", "gpt-4","gemini-pro", "qianfan", "chatglm", "jittorllms_rwkv", "jittorllms_llama", "qwen"] ' 我目前再使用的镜像为: image: docker.io/bentwng/gpt_academic_nolocal:latest

dycwuxing commented 8 months ago

我的系统:55~20.04.1-Ubuntu SMP Wed Nov 22 17:38:08 UTC 2023 aarch64 aarch64 aarch64 GNU/Linux

jackeyzzz12138 commented 8 months ago

我使用ubuntu(arm64)为基座重新搭了一个docker image,目前在我自己的M1 macbook上使用没有问题,想请各位测试一下,如果可以的话我愿意PR到主项目。https://github.com/jackeyzzz12138/gpt_academic/pkgs/container/gpt_academic_with_latex_arm

甲骨文ubuntu20.04上始终无反应,log也是卡主不动.... 模型切换,主题切换,问答等 image image

收到了你的问题,我再次尝试了你所说的这些操作,并没有复现出你的报错,所以初步怀疑是否为网络问题或本地配置的问题? 截屏2024-01-09 20 35 09 截屏2024-01-09 20 36 03

感觉国外VPS上不应该会有网络问题,我的配置是 version: "3" services: gpt_academic_full_capability: #image: ghcr.io/binary-husky/gpt_academic_with_all_capacity:master image: ghcr.io/jackeyzzz12138/gpt_academic_with_latex_arm:arm #volumes: # - /opt/gpt_academic/gpt:/ environment: # 请查阅 config.py或者 github wiki 以查看所有的配置信息 COMPOSE_PROJECT_NAME: " gpt_academic_all " API_KEY: " sess-ABCDEFT " CUSTOM_API_KEY_PATTERN: " sess-ABCDEFT " GEMINI_API_KEY: " ABCDEFT " LLM_MODEL: " gpt-3.5-turbo " AVAIL_LLM_MODELS: ' ["gpt-3.5-turbo", "gpt-4", "qianfan", "chatglm", "jittorllms_rwkv", "jittorllms_llama", "qwen"] ' BAIDU_CLOUD_API_KEY: " ABCDEFT " BAIDU_CLOUD_SECRET_KEY: " ABCDEFT " BAIDU_CLOUD_QIANFAN_MODEL: " XuanYuan-70B-Chat-4bit " ADD_WAIFU: " False " ALIYUN_APPKEY: " ABCDEFT " ALIYUN_SECRET: " ABCDEFT " ENABLE_AUDIO: " False " DEFAULT_WORKER_NUM: " 20 " WEB_PORT: " 9999 " THEME: " Chuanhu-Small-and-Beautiful " LAYOUT: " TOP-DOWN " AUTHENTICATION: ' [("ABC", "123456")] ' network_mode: "host" command: > bash -c "python3 -u main.py"

上一条的回复有误,我进行了删除。 我测试了你的配置文件在ubuntu 22.04.03 LTS aarch64上并通过IP:端口连接,进行了切换模型和切换主题等操作仍然未得到复现。 使用其他镜像时没有遇到类似问题吗? 部署在VPS上使用了域名反代等操作吗? 建议查找其他类似issue或者wiki找到VPS常见问题的解决方案进行尝试,也希望得到你的反馈👍

这很奇怪,我没有做域名,反代之类的操作 我用另外的镜像,尝试了放多模型也没有问题,但是他的镜像应该并没有做本地模型相关,所以会运行错误,但是GPT3.5和GEMINI是ok的 AVAIL_LLM_MODELS: ' ["gpt-3.5-turbo", "gpt-4","gemini-pro", "qianfan", "chatglm", "jittorllms_rwkv", "jittorllms_llama", "qwen"] ' 我目前再使用的镜像为: image: docker.io/bentwng/gpt_academic_nolocal:latest

感谢你的反馈,我的fork仓库镜像是依据方案四的镜像进行修改以支持arm,方案四上说明支持GPT+Latex,可能确实不支持其他大语言模型,我自己本身也只有GPT相关API所以未遇到报错。如果需要其他模型或者本地模型,还是建议选择其他方案。

## ===================================================
## 【方案四】 ChatGPT + Latex
## ===================================================
version: '3'
services:
  gpt_academic_with_latex:
    image: ghcr.io/binary-husky/gpt_academic_with_latex:master  # (Auto Built by Dockerfile: docs/GithubAction+NoLocal+Latex)
    environment:
      # 请查阅 `config.py` 以查看所有的配置信息
      API_KEY:                  '    sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx                              '
      USE_PROXY:                '    True                                                                             '
      proxies:                  '    { "http": "socks5h://localhost:10880", "https": "socks5h://localhost:10880", }   '
      LLM_MODEL:                '    gpt-3.5-turbo                                                                    '
      AVAIL_LLM_MODELS:         '    ["gpt-3.5-turbo", "gpt-4"]                                                       '
      LOCAL_MODEL_DEVICE:       '    cuda                                                                             '
      DEFAULT_WORKER_NUM:       '    10                                                                               '
      WEB_PORT:                 '    12303                                                                            '

    # 与宿主的网络融合
    network_mode: "host"

    # 不使用代理网络拉取最新代码
    command: >
      bash -c "python3 -u main.py"