Open MoncozGC opened 4 months ago
这个项目的核心是语音识别,视频要有配音,或者对话内容。如果只是单纯的背景音乐,可能无法识别,会报错
这个项目的核心是语音识别,视频要有配音,或者对话内容。如果只是单纯的背景音乐,可能无法识别,会报错
不过重新换了一个有配音的视频,会报错 503,是我有什么服务没有启动嘛
rtf_avg: 0.215, time_speech: 46.440, time_escape: 9.969: 100%|█████████| 1/1 [00:10<00:00, 10.38s/it]
2024-07-25 08:16:35 - HTTP Request: POST http://localhost:11434/v1/chat/completions "HTTP/1.1 503 Service Unavailable"
2024-07-25 08:16:35 - Retrying request to /chat/completions in 0.770745 seconds
2024-07-25 08:16:36 - HTTP Request: POST http://localhost:11434/v1/chat/completions "HTTP/1.1 503 Service Unavailable"
2024-07-25 08:16:36 - Retrying request to /chat/completions in 1.889148 seconds
2024-07-25 08:16:38 - HTTP Request: POST http://localhost:11434/v1/chat/completions "HTTP/1.1 503 Service Unavailable"
2024-07-25 08:16:38 - Error code: 503
return self._retry_request(
File "G:\Anaconda-EVN\AudioNotes\lib\site-packages\openai\_base_client.py", line 1079, in _retry_request
return self._request(
File "G:\Anaconda-EVN\AudioNotes\lib\site-packages\openai\_base_client.py", line 1031, in _request
return self._retry_request(
File "G:\Anaconda-EVN\AudioNotes\lib\site-packages\openai\_base_client.py", line 1079, in _retry_request
return self._request(
File "G:\Anaconda-EVN\AudioNotes\lib\site-packages\openai\_base_client.py", line 1046, in _request
raise self._make_status_error_from_response(err.response) from None
openai.InternalServerError: Error code: 503
这个是你的Ollama服务连接不上,你看看ollama是否按要求拉取了模型,并且启动了
因为第一次使用ollama,有些地方不清楚,下面是我的操作
http://localhost:11434
成功,返回了 Ollama is running
http://localhost:11434/v1
失败,报错 404http://localhost:11434/v1/chat/completions
失败,报错 404不清楚我是哪个步骤操作有误,还请指教
你这个步骤是对的,没有问题 只要 http://localhost:11434 返回了 running 就说明 ollama 服务在运行中了
请问你的 ollama 服务和 docker,是运行在同一个机器上的么?
在文件上传时出现了“Failed to execute 'removeChild' on 'Node': The node to be removed is not a child of this node.”的错误提示请问可能是什么原因,感谢!
你这个步骤是对的,没有问题 只要 http://localhost:11434* 返回了 running 就说明 ollama 服务在运行中了
请问你的 ollama 服务和 docker,是运行在同一个机器上的么?
@harry0703
我使用的是本地搭建的方式,我的ollama服务和启动的 chainlit run main.py
服务都是再同一台机器上
你这个步骤是对的,没有问题 只要 http://localhost:11434* 返回了 running 就说明 ollama 服务在运行中了 请问你的 ollama 服务和 docker,是运行在同一个机器上的么?
@harry0703
我使用的是本地搭建的方式,我的ollama服务和启动的
chainlit run main.py
服务都是再同一台机器上
我也遇到了同样的问题,你这边解决了吗
环境: 本地搭建 python 3.10
操作方式,选择一个视频文件识别时报错。这个视频只有背景音乐,视频内容都是文字。