Closed JinCheng666 closed 2 weeks ago
之前xinference在这方面的实现有问题,可以考虑设置 { "toolChoice": false, "functionCall": false } 走fastgpt内置的提示词
之前xinference在这方面的实现有问题,可以考虑设置 { "toolChoice": false, "functionCall": false } 走fastgpt内置的提示词
提示词的效果比较差,目前fastgpt已经适配了qwen的toolchoice,这个效果要比提示词效果好不少
xinference也是用的提示词,和fastgpt顶多就是提示词内容上有差异。不知道qwen的saas api是如何实现tools call的,也许用的是类似guided grammar的策略
qwen1.5模型是支持原生工具调用的
之前xinference在这方面的实现有问题,可以考虑设置 { "toolChoice": false, "functionCall": false } 走fastgpt内置的提示词
提示词的效果比较差,目前fastgpt已经适配了qwen的toolchoice,这个效果要比提示词效果好不少
这个问题我也遇到了,很大的bug,出现概率非常大
可以 log 下 toolChoice 的内容,看看流是否正常。
可以 log 下 toolChoice 的内容,看看流是否正常。
@c121914yu 抱歉,没明白是查看哪个程序的log?我把fastgpt调试界面中, 查看详情部分贴上来吧,这部分没问题。还有xinference的debug log
插件输出值
{
"result": "{\"prompt\":\"The below set forth the Bing search results,you can use this realtime info,answer user's question。the Searchkey: 大语言模型 最新新闻; SearchResult:\\n\\n- Title:[大型语言模型综述全新出炉:从T5到GPT-4最全盘点,国内 ...](https://www.thepaper.cn/newsDetail_forward_22557232)\\n snippet:2023-04-04 11:58. 来源:澎湃新闻·澎湃号·湃客. 字号. 机器之心报道. 机器之心编辑部. 为什么仿佛一夜之间,自然语言处理(NLP)领域就突然突飞猛进,摸到了通用人工智能的门槛? 如今的大语言模型(LLM)发展到了什么程度? 未来短时间内,AGI 的发展路线又将如何? 自 20 世纪 50 年代图灵测试提出以来,人们始终在探索机器处理语言智能的能力。 语言本质上是一个错综复杂的人类表达系统,受到语法规则的约束。 因此,开发能够理解和精通语言的强大 AI 算法面临着巨大挑战。 过去二十年,语言建模方法被广泛用于语言理解和生成,包括统计语言模型和神经语言模型。\\n Is Navigational Page?:Yes\\n\\n- Title:[大模型年度榜单公布:GPT-4第一,智谱、阿里紧追 - 澎湃新闻](https://www.thepaper.cn/newsDetail_forward_26209606)\\n snippet:对过去一年来主流大模型全面评测诊断后,结果显示,GPT-4-Turbo在各项评测中均获最佳表现,国内厂商近期发布的模型紧随其后,包括智谱清言GLM-4、阿里巴巴Qwen-Max、百度文心一言4.0。 评测是大模型的指挥棒和指南针,OpenCompass为模型提供评测服务,量化模型在知识、语言、理解、推理和考试等五大能力维度的表现。 总体来看,大语言模型整体能力仍有较大提升空间,复杂推理相关能力仍是大模型普遍面临的难题,国内大模型相比于GPT-4还存在差距。 中文场景下国内最新大模型已展现出优势,在部分维度上接近GPT-4-Turbo的水平。 中英双语客观评测:数学、代码仍是短板.\\n Is Navigational Page?:No\\n\\n- Title:[澎湃新闻 - 开源大模型Llama 3王者归来:最大底牌4000亿 ...](https://www.thepaper.cn/newsDetail_forward_27106328)\\n snippet:本周四,AI 领域迎来重大消息,Meta 正式发布了人们等待已久的开源大模型 Llama 3。 扎克伯格在 Facebook 上发帖:Big AI news today. 与此同时,扎克伯格宣布:基于最新的 Llama 3 模型,Meta 的 AI 助手现在已经覆盖 Instagram、WhatsApp、Facebook 等全系应用,并单独开启了网站。 另外还有一个图像生成器,可根据自然语言提示词生成图片。 Meta AI 网址:https://www.meta.ai/ 同日,亚马逊云科技也宣布,Meta Llama 3 基础模型已可通过 Amazon SageMaker JumpStart来部署和推理运行。\\n Is Navigational Page?:No\"}"
}
插件详情
body:
{
"searchKey": "大语言模型 最新新闻"
}
响应体
{
"prompt": "The below set forth the Bing search results,you can use this realtime info,answer user's question。the Searchkey: 大语言模型 最新新闻; SearchResult:\n\n- Title:[大型语言模型综述全新出炉:从T5到GPT-4最全盘点,国内 ...](https://www.thepaper.cn/newsDetail_forward_22557232)\n snippet:2023-04-04 11:58. 来源:澎湃新闻·澎湃号·湃客. 字号. 机器之心报道. 机器之心编辑部. 为什么仿佛一夜之间,自然语言处理(NLP)领域就突然突飞猛进,摸到了通用人工智能的门槛? 如今的大语言模型(LLM)发展到了什么程度? 未来短时间内,AGI 的发展路线又将如何? 自 20 世纪 50 年代图灵测试提出以来,人们始终在探索机器处理语言智能的能力。 语言本质上是一个错综复杂的人类表达系统,受到语法规则的约束。 因此,开发能够理解和精通语言的强大 AI 算法面临着巨大挑战。 过去二十年,语言建模方法被广泛用于语言理解和生成,包括统计语言模型和神经语言模型。\n Is Navigational Page?:Yes\n\n- Title:[大模型年度榜单公布:GPT-4第一,智谱、阿里紧追 - 澎湃新闻](https://www.thepaper.cn/newsDetail_forward_26209606)\n snippet:对过去一年来主流大模型全面评测诊断后,结果显示,GPT-4-Turbo在各项评测中均获最佳表现,国内厂商近期发布的模型紧随其后,包括智谱清言GLM-4、阿里巴巴Qwen-Max、百度文心一言4.0。 评测是大模型的指挥棒和指南针,OpenCompass为模型提供评测服务,量化模型在知识、语言、理解、推理和考试等五大能力维度的表现。 总体来看,大语言模型整体能力仍有较大提升空间,复杂推理相关能力仍是大模型普遍面临的难题,国内大模型相比于GPT-4还存在差距。 中文场景下国内最新大模型已展现出优势,在部分维度上接近GPT-4-Turbo的水平。 中英双语客观评测:数学、代码仍是短板.\n Is Navigational Page?:No\n\n- Title:[澎湃新闻 - 开源大模型Llama 3王者归来:最大底牌4000亿 ...](https://www.thepaper.cn/newsDetail_forward_27106328)\n snippet:本周四,AI 领域迎来重大消息,Meta 正式发布了人们等待已久的开源大模型 Llama 3。 扎克伯格在 Facebook 上发帖:Big AI news today. 与此同时,扎克伯格宣布:基于最新的 Llama 3 模型,Meta 的 AI 助手现在已经覆盖 Instagram、WhatsApp、Facebook 等全系应用,并单独开启了网站。 另外还有一个图像生成器,可根据自然语言提示词生成图片。 Meta AI 网址:https://www.meta.ai/ 同日,亚马逊云科技也宣布,Meta Llama 3 基础模型已可通过 Amazon SageMaker JumpStart来部署和推理运行。\n Is Navigational Page?:No"
}
xinference的debug log
2024-06-04 08:36:45,493 xinference.core.supervisor 20303 DEBUG Enter get_model, args: (<xinference.core.supervisor.SupervisorActor object at 0x7f1ec561cf40>, 'qwen:72b'), kwargs: {}
2024-06-04 08:36:45,494 xinference.core.worker 20303 DEBUG Enter get_model, args: (<xinference.core.worker.WorkerActor object at 0x7f203e884130>,), kwargs: {'model_uid': 'qwen:72b-1-0'}
2024-06-04 08:36:45,494 xinference.core.worker 20303 DEBUG Leave get_model, elapsed time: 0 s
2024-06-04 08:36:45,494 xinference.core.supervisor 20303 DEBUG Leave get_model, elapsed time: 0 s
2024-06-04 08:36:45,495 xinference.core.supervisor 20303 DEBUG Enter describe_model, args: (<xinference.core.supervisor.SupervisorActor object at 0x7f1ec561cf40>, 'qwen:72b'), kwargs: {}
2024-06-04 08:36:45,495 xinference.core.worker 20303 DEBUG Enter describe_model, args: (<xinference.core.worker.WorkerActor object at 0x7f203e884130>,), kwargs: {'model_uid': 'qwen:72b-1-0'}
2024-06-04 08:36:45,495 xinference.core.worker 20303 DEBUG Leave describe_model, elapsed time: 0 s
2024-06-04 08:36:45,495 xinference.core.supervisor 20303 DEBUG Leave describe_model, elapsed time: 0 s
2024-06-04 08:36:45,497 xinference.core.model 824361 DEBUG Enter wrapped_func, args: (<xinference.core.model.ModelActor object at 0x7f2a1b304770>, '查询大语言模型最新新闻', '你的任务是:根据问题生成搜索关键词,调用Bing网络查询。\n在调用Bing网络查询时,请确保生成的搜索词准确反映了问题的核心内容。在回答问题时,要充分利用知识库和网络查询的结果,以确保回答的准确性和完整性。\n\n\n\r', [], {'temperature': 0.0, 'tool_choice': 'auto', 'tools': <list_iterator object at 0x7f1f58166f20>, 'stream': True}), kwargs: {}
2024-06-04 08:36:45,497 xinference.core.model 824361 DEBUG Request chat, current serve request count: 0, request limit: None for the model qwen:72b
2024-06-04 08:36:45,497 xinference.model.llm.vllm.core 824361 DEBUG Enter generate, prompt: <|im_start|>system
你的任务是:根据问题生成搜索关键词,调用Bing网络查询。
在调用Bing网络查询时,请确保生成的搜索词准确反映了问题的核心内容。在回答问题时,要充分利用知识库和网络查询的结果,以确保回答的准确性和完整性。
<|im_end|>
<|im_start|>user
Answer the following questions as best you can. You have access to the following APIs:
oFKYtn: Call this tool to interact with the oFKYtn API. What is the oFKYtn API useful for? 获取用户当前时区的时间。 Parameters: [] Format the arguments as a JSON object.
l4Cnqy: Call this tool to interact with the l4Cnqy API. What is the l4Cnqy API useful for? Performs a Bing search for the given search key. Parameters: [{"name": "searchKey", "type": "string", "description": "The search term to use in the Bing search."}] Format the arguments as a JSON object.
Use the following format:
Question: the input question you must answer
Thought: you should always think about what to do
Action: the action to take, should be one of [oFKYtn, l4Cnqy]
Action Input: the input to the action
Observation: the result of the action
... (this Thought/Action/Action Input/Observation can be repeated zero or more times)
Thought: I now know the final answer
Final Answer: the final answer to the original input question
Begin!
Question: 查询大语言模型最新新闻<|im_end|>
<|im_start|>assistant
, generate config: {'temperature': 0.0, 'tool_choice': 'auto', 'stream': True, 'stop': ['<|endoftext|>', '<|im_start|>', '<|im_end|>', 'Observation:'], 'stop_token_ids': [151643, 151644, 151645]}
2024-06-04 08:36:45,497 xinference.core.model 824361 DEBUG After request chat, current serve request count: 0 for the model qwen:72b
2024-06-04 08:36:45,498 xinference.core.model 824361 DEBUG Leave wrapped_func, elapsed time: 0 s
2024-06-04 08:36:47,613 xinference.model.llm.utils 824361 DEBUG Tool call content: 我需要使用Bing搜索来查找大语言模型的最新新闻。, func: l4Cnqy, args: {'searchKey': '大语言模型 最新新闻'}
2024-06-04 08:37:00,070 xinference.core.supervisor 20303 DEBUG Enter get_model, args: (<xinference.core.supervisor.SupervisorActor object at 0x7f1ec561cf40>, 'qwen:72b'), kwargs: {}
2024-06-04 08:37:00,071 xinference.core.worker 20303 DEBUG Enter get_model, args: (<xinference.core.worker.WorkerActor object at 0x7f203e884130>,), kwargs: {'model_uid': 'qwen:72b-1-0'}
2024-06-04 08:37:00,071 xinference.core.worker 20303 DEBUG Leave get_model, elapsed time: 0 s
2024-06-04 08:37:00,071 xinference.core.supervisor 20303 DEBUG Leave get_model, elapsed time: 0 s
2024-06-04 08:37:00,072 xinference.core.supervisor 20303 DEBUG Enter describe_model, args: (<xinference.core.supervisor.SupervisorActor object at 0x7f1ec561cf40>, 'qwen:72b'), kwargs: {}
2024-06-04 08:37:00,072 xinference.core.worker 20303 DEBUG Enter describe_model, args: (<xinference.core.worker.WorkerActor object at 0x7f203e884130>,), kwargs: {'model_uid': 'qwen:72b-1-0'}
2024-06-04 08:37:00,072 xinference.core.worker 20303 DEBUG Leave describe_model, elapsed time: 0 s
2024-06-04 08:37:00,072 xinference.core.supervisor 20303 DEBUG Leave describe_model, elapsed time: 0 s
2024-06-04 08:37:00,074 xinference.core.model 824361 DEBUG Enter wrapped_func, args: (<xinference.core.model.ModelActor object at 0x7f2a1b304770>, '<TOOL>', '你的任务是:根据问题生成搜索关键词,调用Bing网络查询。\n在调用Bing网络查询时,请确保生成的搜索词准确反映了问题的核心内容。在回答问题时,要充分利用知识库和网络查询的结果,以确保回答的准确性和完整性。\n\n\n\r', [{'role': 'user', 'content': '查询大语言模型最新新闻'}, {'role': 'assistant', 'tool_calls': [{'id': '12fc88f9-477c-4565-aa80-944a61ca5b82', 'type': 'function', 'function': {'name': 'l4Cnqy', 'arguments': '{"searchKey": "大语言模型 最新新闻"}'}}]}, {'tool_call_id': '12fc88f9-477c-4565-aa80-944a61ca5b82', 'role': 'tool', 'name': 'l4Cnqy', 'content': '{\n "result": "{\\"prompt\\":\\"The below set forth the Bing search results,you can use this realtime info,answer user\'s question。the Searchkey: 大语言模型 最新新闻; SearchResult:\\\\n\\\\n- Title:[大型语言模型综述全新出炉:从T5到GPT-4最全盘点,国内 ...](https://www.thepaper.cn/newsDetail_forward_22557232)\\\\n snippet:2023-04-04 11:58. 来源:澎湃新闻·澎湃号·湃客. 字号. 机器之心报道. 机器之心编辑部. 为什么仿佛一夜之间,自然语言处理(NLP)领域就突然突飞猛进,摸到了通用人工智能的门槛? 如今的大语言模型(LLM)发展到了什么程度? 未来短时间内,AGI 的发展路线又将如何? 自 20 世纪 50 年代图灵测试提出以来,人们始终在探索机器处理语言智能的能力。 语言本质上是一个错综复杂的人类表达系统,受到语法规则的约束。 因此,开发能够理解和精通语言的强大 AI 算法面临着巨大挑战。 过去二十年,语言建模方法被广泛用于语言理解和生成,包括统计语言模型和神经语言模型。\\\\n Is Navigational Page?:Yes\\\\n\\\\n- Title:[大模型年度榜单公布:GPT-4第一,智谱、阿里紧追 - 澎湃新闻](https://www.thepaper.cn/newsDetail_forward_26209606)\\\\n snippet:对过去一年来主流大模型全面评测诊断后,结果显示,GPT-4-Turbo在各项评测中均获最佳表现,国内厂商近期发布的模型紧随其后,包括智谱清言GLM-4、阿里巴巴Qwen-Max、百度文心一言4.0。 评测是大模型的指挥棒和指南针,OpenCompass为模型提供评测服务,量化模型在知识、语言、理解、推理和考试等五大能力维度的表现。 总体来看,大语言模型整体能力仍有较大提升空间,复杂推理相关能力仍是大模型普遍面临的难题,国内大模型相比于GPT-4还存在差距。 中文场景下国内最新大模型已展现出优势,在部分维度上接近GPT-4-Turbo的水平。 中英双语客观评测:数学、代码仍是短板.\\\\n Is Navigational Page?:No\\\\n\\\\n- Title:[澎湃新闻 - 开源大模型Llama 3王者归来:最大底牌4000亿 ...](https://www.thepaper.cn/newsDetail_forward_27106328)\\\\n snippet:本周四,AI 领域迎来重大消息,Meta 正式发布了人们等待已久的开源大模型 Llama 3。 扎克伯格在 Facebook 上发帖:Big AI news today. 与此同时,扎克伯格宣布:基于最新的 Llama 3 模型,Meta 的 AI 助手现在已经覆盖 Instagram、WhatsApp、Facebook 等全系应用,并单独开启了网站。 另外还有一个图像生成器,可根据自然语言提示词生成图片。 Meta AI 网址:https://www.meta.ai/ 同日,亚马逊云科技也宣布,Meta Llama 3 基础模型已可通过 Amazon SageMaker JumpStart来部署和推理运行。\\\\n Is Navigational Page?:No\\"}"\n}'}], {'temperature': 0.0, 'tool_choice': 'auto', 'tools': <list_iterator object at 0x7f1f14186770>, 'stream': True}), kwargs: {}
2024-06-04 08:37:00,075 xinference.core.model 824361 DEBUG Request chat, current serve request count: 0, request limit: None for the model qwen:72b
2024-06-04 08:37:00,075 xinference.model.llm.vllm.core 824361 DEBUG Enter generate, prompt: <|im_start|>system
你的任务是:根据问题生成搜索关键词,调用Bing网络查询。
在调用Bing网络查询时,请确保生成的搜索词准确反映了问题的核心内容。在回答问题时,要充分利用知识库和网络查询的结果,以确保回答的准确性和完整性。
<|im_end|>
<|im_start|>user
Answer the following questions as best you can. You have access to the following APIs:
oFKYtn: Call this tool to interact with the oFKYtn API. What is the oFKYtn API useful for? 获取用户当前时区的时间。 Parameters: [] Format the arguments as a JSON object.
l4Cnqy: Call this tool to interact with the l4Cnqy API. What is the l4Cnqy API useful for? Performs a Bing search for the given search key. Parameters: [{"name": "searchKey", "type": "string", "description": "The search term to use in the Bing search."}] Format the arguments as a JSON object.
Use the following format:
Question: the input question you must answer
Thought: you should always think about what to do
Action: the action to take, should be one of [oFKYtn, l4Cnqy]
Action Input: the input to the action
Observation: the result of the action
... (this Thought/Action/Action Input/Observation can be repeated zero or more times)
Thought: I now know the final answer
Final Answer: the final answer to the original input question
Begin!
Question: 查询大语言模型最新新闻<|im_end|>
<|im_start|>assistant
Thought: I can use l4Cnqy.
Action: l4Cnqy
Action Input: {"searchKey": "大语言模型 最新新闻"}<|im_end|>
<|im_start|>function
Observation: {
"result": "{\"prompt\":\"The below set forth the Bing search results,you can use this realtime info,answer user's question。the Searchkey: 大语言模型 最新新闻; SearchResult:\\n\\n- Title:[大型语言模型综述全新出炉:从T5到GPT-4最全盘点,国内 ...](https://www.thepaper.cn/newsDetail_forward_22557232)\\n snippet:2023-04-04 11:58. 来源:澎湃新闻·澎湃号·湃客. 字号. 机器之心报道. 机器之心编辑部. 为什么仿佛一夜之间,自然语言处理(NLP)领域就突然突飞猛进,摸到了通用人工智能的门槛? 如今的大语言模型(LLM)发展到了什么程度? 未来短时间内,AGI 的发展路线又将如何? 自 20 世纪 50 年代图灵测试提出以来,人们始终在探索机器处理语言智能的能力。 语言本质上是一个错综复杂的人类表达系统,受到语法规则的约束。 因此,开发能够理解和精通语言的强大 AI 算法面临着巨大挑战。 过去二十年,语言建模方法被广泛用于语言理解和生成,包括统计语言模型和神经语言模型。\\n Is Navigational Page?:Yes\\n\\n- Title:[大模型年度榜单公布:GPT-4第一,智谱、阿里紧追 - 澎湃新闻](https://www.thepaper.cn/newsDetail_forward_26209606)\\n snippet:对过去一年来主流大模型全面评测诊断后,结果显示,GPT-4-Turbo在各项评测中均获最佳表现,国内厂商近期发布的模型紧随其后,包括智谱清言GLM-4、阿里巴巴Qwen-Max、百度文心一言4.0。 评测是大模型的指挥棒和指南针,OpenCompass为模型提供评测服务,量化模型在知识、语言、理解、推理和考试等五大能力维度的表现。 总体来看,大语言模型整体能力仍有较大提升空间,复杂推理相关能力仍是大模型普遍面临的难题,国内大模型相比于GPT-4还存在差距。 中文场景下国内最新大模型已展现出优势,在部分维度上接近GPT-4-Turbo的水平。 中英双语客观评测:数学、代码仍是短板.\\n Is Navigational Page?:No\\n\\n- Title:[澎湃新闻 - 开源大模型Llama 3王者归来:最大底牌4000亿 ...](https://www.thepaper.cn/newsDetail_forward_27106328)\\n snippet:本周四,AI 领域迎来重大消息,Meta 正式发布了人们等待已久的开源大模型 Llama 3。 扎克伯格在 Facebook 上发帖:Big AI news today. 与此同时,扎克伯格宣布:基于最新的 Llama 3 模型,Meta 的 AI 助手现在已经覆盖 Instagram、WhatsApp、Facebook 等全系应用,并单独开启了网站。 另外还有一个图像生成器,可根据自然语言提示词生成图片。 Meta AI 网址:https://www.meta.ai/ 同日,亚马逊云科技也宣布,Meta Llama 3 基础模型已可通过 Amazon SageMaker JumpStart来部署和推理运行。\\n Is Navigational Page?:No\"}"
}<|im_end|>
<|im_start|>assistant
, generate config: {'temperature': 0.0, 'tool_choice': 'auto', 'stream': True, 'stop': ['<|endoftext|>', '<|im_start|>', '<|im_end|>', 'Observation:'], 'stop_token_ids': [151643, 151644, 151645]}
2024-06-04 08:37:00,075 xinference.core.model 824361 DEBUG After request chat, current serve request count: 0 for the model qwen:72b
2024-06-04 08:37:00,075 xinference.core.model 824361 DEBUG Leave wrapped_func, elapsed time: 0 s
2024-06-04 08:37:10,720 xinference.model.llm.utils 824361 DEBUG Tool call content: 最近的大语言模型新闻包括:
1. 一篇来自澎湃新闻的文章提到,2023年4月4日,自然语言处理(NLP)领域取得了显著进步,大语言模型(LLM)的发展已经接近通用人工智能的门槛。文章提到了从T5到GPT-4的最全盘点,并指出国内的模型也在快速发展[[1]()]。
2. 另一篇来自澎湃新闻的报道指出,OpenCompass对过去一年的大模型进行了全面评测,结果显示GPT-4-Turbo表现出色,国内的智谱清言GLM-4、阿里巴巴Qwen-Max和百度文心一言4.0紧随其后。尽管国内模型在某些方面接近GPT-4,但在复杂推理能力上仍有提升空间[[2]()]。
3. Meta公司发布了开源大模型Llama 3,扎克伯格宣布这个模型已应用于Meta的全系应用,包括Instagram、WhatsApp和Facebook。此外,Llama 3还支持图像生成功能[[3]()]。
这些新闻反映了大语言模型领域的快速发展和竞争,以及技术在不同应用场景中的应用。, func: None, args: None
2024-06-04 08:37:10,774 xoscar.backends.core 20232 WARNING Actor caller has created too many clients (820 >= 100), the global router may not be set.
可以 log 下 toolChoice 的内容,看看流是否正常。
抱歉,没明白是查看哪个程序的log?我把fastgpt调试界面中, 查看详情部分贴上来吧,这部分没问题。还有xinference的debug log
插件输出值
{ "result": "{\"prompt\":\"The below set forth the Bing search results,you can use this realtime info,answer user's question。the Searchkey: 大语言模型 最新新闻; SearchResult:\\n\\n- Title:[大型语言模型综述全新出炉:从T5到GPT-4最全盘点,国内 ...](https://www.thepaper.cn/newsDetail_forward_22557232)\\n snippet:2023-04-04 11:58. 来源:澎湃新闻·澎湃号·湃客. 字号. 机器之心报道. 机器之心编辑部. 为什么仿佛一夜之间,自然语言处理(NLP)领域就突然突飞猛进,摸到了通用人工智能的门槛? 如今的大语言模型(LLM)发展到了什么程度? 未来短时间内,AGI 的发展路线又将如何? 自 20 世纪 50 年代图灵测试提出以来,人们始终在探索机器处理语言智能的能力。 语言本质上是一个错综复杂的人类表达系统,受到语法规则的约束。 因此,开发能够理解和精通语言的强大 AI 算法面临着巨大挑战。 过去二十年,语言建模方法被广泛用于语言理解和生成,包括统计语言模型和神经语言模型。\\n Is Navigational Page?:Yes\\n\\n- Title:[大模型年度榜单公布:GPT-4第一,智谱、阿里紧追 - 澎湃新闻](https://www.thepaper.cn/newsDetail_forward_26209606)\\n snippet:对过去一年来主流大模型全面评测诊断后,结果显示,GPT-4-Turbo在各项评测中均获最佳表现,国内厂商近期发布的模型紧随其后,包括智谱清言GLM-4、阿里巴巴Qwen-Max、百度文心一言4.0。 评测是大模型的指挥棒和指南针,OpenCompass为模型提供评测服务,量化模型在知识、语言、理解、推理和考试等五大能力维度的表现。 总体来看,大语言模型整体能力仍有较大提升空间,复杂推理相关能力仍是大模型普遍面临的难题,国内大模型相比于GPT-4还存在差距。 中文场景下国内最新大模型已展现出优势,在部分维度上接近GPT-4-Turbo的水平。 中英双语客观评测:数学、代码仍是短板.\\n Is Navigational Page?:No\\n\\n- Title:[澎湃新闻 - 开源大模型Llama 3王者归来:最大底牌4000亿 ...](https://www.thepaper.cn/newsDetail_forward_27106328)\\n snippet:本周四,AI 领域迎来重大消息,Meta 正式发布了人们等待已久的开源大模型 Llama 3。 扎克伯格在 Facebook 上发帖:Big AI news today. 与此同时,扎克伯格宣布:基于最新的 Llama 3 模型,Meta 的 AI 助手现在已经覆盖 Instagram、WhatsApp、Facebook 等全系应用,并单独开启了网站。 另外还有一个图像生成器,可根据自然语言提示词生成图片。 Meta AI 网址:https://www.meta.ai/ 同日,亚马逊云科技也宣布,Meta Llama 3 基础模型已可通过 Amazon SageMaker JumpStart来部署和推理运行。\\n Is Navigational Page?:No\"}" }
插件详情
body: { "searchKey": "大语言模型 最新新闻" } 响应体 { "prompt": "The below set forth the Bing search results,you can use this realtime info,answer user's question。the Searchkey: 大语言模型 最新新闻; SearchResult:\n\n- Title:[大型语言模型综述全新出炉:从T5到GPT-4最全盘点,国内 ...](https://www.thepaper.cn/newsDetail_forward_22557232)\n snippet:2023-04-04 11:58. 来源:澎湃新闻·澎湃号·湃客. 字号. 机器之心报道. 机器之心编辑部. 为什么仿佛一夜之间,自然语言处理(NLP)领域就突然突飞猛进,摸到了通用人工智能的门槛? 如今的大语言模型(LLM)发展到了什么程度? 未来短时间内,AGI 的发展路线又将如何? 自 20 世纪 50 年代图灵测试提出以来,人们始终在探索机器处理语言智能的能力。 语言本质上是一个错综复杂的人类表达系统,受到语法规则的约束。 因此,开发能够理解和精通语言的强大 AI 算法面临着巨大挑战。 过去二十年,语言建模方法被广泛用于语言理解和生成,包括统计语言模型和神经语言模型。\n Is Navigational Page?:Yes\n\n- Title:[大模型年度榜单公布:GPT-4第一,智谱、阿里紧追 - 澎湃新闻](https://www.thepaper.cn/newsDetail_forward_26209606)\n snippet:对过去一年来主流大模型全面评测诊断后,结果显示,GPT-4-Turbo在各项评测中均获最佳表现,国内厂商近期发布的模型紧随其后,包括智谱清言GLM-4、阿里巴巴Qwen-Max、百度文心一言4.0。 评测是大模型的指挥棒和指南针,OpenCompass为模型提供评测服务,量化模型在知识、语言、理解、推理和考试等五大能力维度的表现。 总体来看,大语言模型整体能力仍有较大提升空间,复杂推理相关能力仍是大模型普遍面临的难题,国内大模型相比于GPT-4还存在差距。 中文场景下国内最新大模型已展现出优势,在部分维度上接近GPT-4-Turbo的水平。 中英双语客观评测:数学、代码仍是短板.\n Is Navigational Page?:No\n\n- Title:[澎湃新闻 - 开源大模型Llama 3王者归来:最大底牌4000亿 ...](https://www.thepaper.cn/newsDetail_forward_27106328)\n snippet:本周四,AI 领域迎来重大消息,Meta 正式发布了人们等待已久的开源大模型 Llama 3。 扎克伯格在 Facebook 上发帖:Big AI news today. 与此同时,扎克伯格宣布:基于最新的 Llama 3 模型,Meta 的 AI 助手现在已经覆盖 Instagram、WhatsApp、Facebook 等全系应用,并单独开启了网站。 另外还有一个图像生成器,可根据自然语言提示词生成图片。 Meta AI 网址:https://www.meta.ai/ 同日,亚马逊云科技也宣布,Meta Llama 3 基础模型已可通过 Amazon SageMaker JumpStart来部署和推理运行。\n Is Navigational Page?:No" }
xinference的debug log
2024-06-04 08:36:45,493 xinference.core.supervisor 20303 DEBUG Enter get_model, args: (<xinference.core.supervisor.SupervisorActor object at 0x7f1ec561cf40>, 'qwen:72b'), kwargs: {} 2024-06-04 08:36:45,494 xinference.core.worker 20303 DEBUG Enter get_model, args: (<xinference.core.worker.WorkerActor object at 0x7f203e884130>,), kwargs: {'model_uid': 'qwen:72b-1-0'} 2024-06-04 08:36:45,494 xinference.core.worker 20303 DEBUG Leave get_model, elapsed time: 0 s 2024-06-04 08:36:45,494 xinference.core.supervisor 20303 DEBUG Leave get_model, elapsed time: 0 s 2024-06-04 08:36:45,495 xinference.core.supervisor 20303 DEBUG Enter describe_model, args: (<xinference.core.supervisor.SupervisorActor object at 0x7f1ec561cf40>, 'qwen:72b'), kwargs: {} 2024-06-04 08:36:45,495 xinference.core.worker 20303 DEBUG Enter describe_model, args: (<xinference.core.worker.WorkerActor object at 0x7f203e884130>,), kwargs: {'model_uid': 'qwen:72b-1-0'} 2024-06-04 08:36:45,495 xinference.core.worker 20303 DEBUG Leave describe_model, elapsed time: 0 s 2024-06-04 08:36:45,495 xinference.core.supervisor 20303 DEBUG Leave describe_model, elapsed time: 0 s 2024-06-04 08:36:45,497 xinference.core.model 824361 DEBUG Enter wrapped_func, args: (<xinference.core.model.ModelActor object at 0x7f2a1b304770>, '查询大语言模型最新新闻', '你的任务是:根据问题生成搜索关键词,调用Bing网络查询。\n在调用Bing网络查询时,请确保生成的搜索词准确反映了问题的核心内容。在回答问题时,要充分利用知识库和网络查询的结果,以确保回答的准确性和完整性。\n\n\n\r', [], {'temperature': 0.0, 'tool_choice': 'auto', 'tools': <list_iterator object at 0x7f1f58166f20>, 'stream': True}), kwargs: {} 2024-06-04 08:36:45,497 xinference.core.model 824361 DEBUG Request chat, current serve request count: 0, request limit: None for the model qwen:72b 2024-06-04 08:36:45,497 xinference.model.llm.vllm.core 824361 DEBUG Enter generate, prompt: <|im_start|>system 你的任务是:根据问题生成搜索关键词,调用Bing网络查询。 在调用Bing网络查询时,请确保生成的搜索词准确反映了问题的核心内容。在回答问题时,要充分利用知识库和网络查询的结果,以确保回答的准确性和完整性。 <|im_end|> <|im_start|>user Answer the following questions as best you can. You have access to the following APIs: oFKYtn: Call this tool to interact with the oFKYtn API. What is the oFKYtn API useful for? 获取用户当前时区的时间。 Parameters: [] Format the arguments as a JSON object. l4Cnqy: Call this tool to interact with the l4Cnqy API. What is the l4Cnqy API useful for? Performs a Bing search for the given search key. Parameters: [{"name": "searchKey", "type": "string", "description": "The search term to use in the Bing search."}] Format the arguments as a JSON object. Use the following format: Question: the input question you must answer Thought: you should always think about what to do Action: the action to take, should be one of [oFKYtn, l4Cnqy] Action Input: the input to the action Observation: the result of the action ... (this Thought/Action/Action Input/Observation can be repeated zero or more times) Thought: I now know the final answer Final Answer: the final answer to the original input question Begin! Question: 查询大语言模型最新新闻<|im_end|> <|im_start|>assistant , generate config: {'temperature': 0.0, 'tool_choice': 'auto', 'stream': True, 'stop': ['<|endoftext|>', '<|im_start|>', '<|im_end|>', 'Observation:'], 'stop_token_ids': [151643, 151644, 151645]} 2024-06-04 08:36:45,497 xinference.core.model 824361 DEBUG After request chat, current serve request count: 0 for the model qwen:72b 2024-06-04 08:36:45,498 xinference.core.model 824361 DEBUG Leave wrapped_func, elapsed time: 0 s 2024-06-04 08:36:47,613 xinference.model.llm.utils 824361 DEBUG Tool call content: 我需要使用Bing搜索来查找大语言模型的最新新闻。, func: l4Cnqy, args: {'searchKey': '大语言模型 最新新闻'} 2024-06-04 08:37:00,070 xinference.core.supervisor 20303 DEBUG Enter get_model, args: (<xinference.core.supervisor.SupervisorActor object at 0x7f1ec561cf40>, 'qwen:72b'), kwargs: {} 2024-06-04 08:37:00,071 xinference.core.worker 20303 DEBUG Enter get_model, args: (<xinference.core.worker.WorkerActor object at 0x7f203e884130>,), kwargs: {'model_uid': 'qwen:72b-1-0'} 2024-06-04 08:37:00,071 xinference.core.worker 20303 DEBUG Leave get_model, elapsed time: 0 s 2024-06-04 08:37:00,071 xinference.core.supervisor 20303 DEBUG Leave get_model, elapsed time: 0 s 2024-06-04 08:37:00,072 xinference.core.supervisor 20303 DEBUG Enter describe_model, args: (<xinference.core.supervisor.SupervisorActor object at 0x7f1ec561cf40>, 'qwen:72b'), kwargs: {} 2024-06-04 08:37:00,072 xinference.core.worker 20303 DEBUG Enter describe_model, args: (<xinference.core.worker.WorkerActor object at 0x7f203e884130>,), kwargs: {'model_uid': 'qwen:72b-1-0'} 2024-06-04 08:37:00,072 xinference.core.worker 20303 DEBUG Leave describe_model, elapsed time: 0 s 2024-06-04 08:37:00,072 xinference.core.supervisor 20303 DEBUG Leave describe_model, elapsed time: 0 s 2024-06-04 08:37:00,074 xinference.core.model 824361 DEBUG Enter wrapped_func, args: (<xinference.core.model.ModelActor object at 0x7f2a1b304770>, '<TOOL>', '你的任务是:根据问题生成搜索关键词,调用Bing网络查询。\n在调用Bing网络查询时,请确保生成的搜索词准确反映了问题的核心内容。在回答问题时,要充分利用知识库和网络查询的结果,以确保回答的准确性和完整性。\n\n\n\r', [{'role': 'user', 'content': '查询大语言模型最新新闻'}, {'role': 'assistant', 'tool_calls': [{'id': '12fc88f9-477c-4565-aa80-944a61ca5b82', 'type': 'function', 'function': {'name': 'l4Cnqy', 'arguments': '{"searchKey": "大语言模型 最新新闻"}'}}]}, {'tool_call_id': '12fc88f9-477c-4565-aa80-944a61ca5b82', 'role': 'tool', 'name': 'l4Cnqy', 'content': '{\n "result": "{\\"prompt\\":\\"The below set forth the Bing search results,you can use this realtime info,answer user\'s question。the Searchkey: 大语言模型 最新新闻; SearchResult:\\\\n\\\\n- Title:[大型语言模型综述全新出炉:从T5到GPT-4最全盘点,国内 ...](https://www.thepaper.cn/newsDetail_forward_22557232)\\\\n snippet:2023-04-04 11:58. 来源:澎湃新闻·澎湃号·湃客. 字号. 机器之心报道. 机器之心编辑部. 为什么仿佛一夜之间,自然语言处理(NLP)领域就突然突飞猛进,摸到了通用人工智能的门槛? 如今的大语言模型(LLM)发展到了什么程度? 未来短时间内,AGI 的发展路线又将如何? 自 20 世纪 50 年代图灵测试提出以来,人们始终在探索机器处理语言智能的能力。 语言本质上是一个错综复杂的人类表达系统,受到语法规则的约束。 因此,开发能够理解和精通语言的强大 AI 算法面临着巨大挑战。 过去二十年,语言建模方法被广泛用于语言理解和生成,包括统计语言模型和神经语言模型。\\\\n Is Navigational Page?:Yes\\\\n\\\\n- Title:[大模型年度榜单公布:GPT-4第一,智谱、阿里紧追 - 澎湃新闻](https://www.thepaper.cn/newsDetail_forward_26209606)\\\\n snippet:对过去一年来主流大模型全面评测诊断后,结果显示,GPT-4-Turbo在各项评测中均获最佳表现,国内厂商近期发布的模型紧随其后,包括智谱清言GLM-4、阿里巴巴Qwen-Max、百度文心一言4.0。 评测是大模型的指挥棒和指南针,OpenCompass为模型提供评测服务,量化模型在知识、语言、理解、推理和考试等五大能力维度的表现。 总体来看,大语言模型整体能力仍有较大提升空间,复杂推理相关能力仍是大模型普遍面临的难题,国内大模型相比于GPT-4还存在差距。 中文场景下国内最新大模型已展现出优势,在部分维度上接近GPT-4-Turbo的水平。 中英双语客观评测:数学、代码仍是短板.\\\\n Is Navigational Page?:No\\\\n\\\\n- Title:[澎湃新闻 - 开源大模型Llama 3王者归来:最大底牌4000亿 ...](https://www.thepaper.cn/newsDetail_forward_27106328)\\\\n snippet:本周四,AI 领域迎来重大消息,Meta 正式发布了人们等待已久的开源大模型 Llama 3。 扎克伯格在 Facebook 上发帖:Big AI news today. 与此同时,扎克伯格宣布:基于最新的 Llama 3 模型,Meta 的 AI 助手现在已经覆盖 Instagram、WhatsApp、Facebook 等全系应用,并单独开启了网站。 另外还有一个图像生成器,可根据自然语言提示词生成图片。 Meta AI 网址:https://www.meta.ai/ 同日,亚马逊云科技也宣布,Meta Llama 3 基础模型已可通过 Amazon SageMaker JumpStart来部署和推理运行。\\\\n Is Navigational Page?:No\\"}"\n}'}], {'temperature': 0.0, 'tool_choice': 'auto', 'tools': <list_iterator object at 0x7f1f14186770>, 'stream': True}), kwargs: {} 2024-06-04 08:37:00,075 xinference.core.model 824361 DEBUG Request chat, current serve request count: 0, request limit: None for the model qwen:72b 2024-06-04 08:37:00,075 xinference.model.llm.vllm.core 824361 DEBUG Enter generate, prompt: <|im_start|>system 你的任务是:根据问题生成搜索关键词,调用Bing网络查询。 在调用Bing网络查询时,请确保生成的搜索词准确反映了问题的核心内容。在回答问题时,要充分利用知识库和网络查询的结果,以确保回答的准确性和完整性。 <|im_end|> <|im_start|>user Answer the following questions as best you can. You have access to the following APIs: oFKYtn: Call this tool to interact with the oFKYtn API. What is the oFKYtn API useful for? 获取用户当前时区的时间。 Parameters: [] Format the arguments as a JSON object. l4Cnqy: Call this tool to interact with the l4Cnqy API. What is the l4Cnqy API useful for? Performs a Bing search for the given search key. Parameters: [{"name": "searchKey", "type": "string", "description": "The search term to use in the Bing search."}] Format the arguments as a JSON object. Use the following format: Question: the input question you must answer Thought: you should always think about what to do Action: the action to take, should be one of [oFKYtn, l4Cnqy] Action Input: the input to the action Observation: the result of the action ... (this Thought/Action/Action Input/Observation can be repeated zero or more times) Thought: I now know the final answer Final Answer: the final answer to the original input question Begin! Question: 查询大语言模型最新新闻<|im_end|> <|im_start|>assistant Thought: I can use l4Cnqy. Action: l4Cnqy Action Input: {"searchKey": "大语言模型 最新新闻"}<|im_end|> <|im_start|>function Observation: { "result": "{\"prompt\":\"The below set forth the Bing search results,you can use this realtime info,answer user's question。the Searchkey: 大语言模型 最新新闻; SearchResult:\\n\\n- Title:[大型语言模型综述全新出炉:从T5到GPT-4最全盘点,国内 ...](https://www.thepaper.cn/newsDetail_forward_22557232)\\n snippet:2023-04-04 11:58. 来源:澎湃新闻·澎湃号·湃客. 字号. 机器之心报道. 机器之心编辑部. 为什么仿佛一夜之间,自然语言处理(NLP)领域就突然突飞猛进,摸到了通用人工智能的门槛? 如今的大语言模型(LLM)发展到了什么程度? 未来短时间内,AGI 的发展路线又将如何? 自 20 世纪 50 年代图灵测试提出以来,人们始终在探索机器处理语言智能的能力。 语言本质上是一个错综复杂的人类表达系统,受到语法规则的约束。 因此,开发能够理解和精通语言的强大 AI 算法面临着巨大挑战。 过去二十年,语言建模方法被广泛用于语言理解和生成,包括统计语言模型和神经语言模型。\\n Is Navigational Page?:Yes\\n\\n- Title:[大模型年度榜单公布:GPT-4第一,智谱、阿里紧追 - 澎湃新闻](https://www.thepaper.cn/newsDetail_forward_26209606)\\n snippet:对过去一年来主流大模型全面评测诊断后,结果显示,GPT-4-Turbo在各项评测中均获最佳表现,国内厂商近期发布的模型紧随其后,包括智谱清言GLM-4、阿里巴巴Qwen-Max、百度文心一言4.0。 评测是大模型的指挥棒和指南针,OpenCompass为模型提供评测服务,量化模型在知识、语言、理解、推理和考试等五大能力维度的表现。 总体来看,大语言模型整体能力仍有较大提升空间,复杂推理相关能力仍是大模型普遍面临的难题,国内大模型相比于GPT-4还存在差距。 中文场景下国内最新大模型已展现出优势,在部分维度上接近GPT-4-Turbo的水平。 中英双语客观评测:数学、代码仍是短板.\\n Is Navigational Page?:No\\n\\n- Title:[澎湃新闻 - 开源大模型Llama 3王者归来:最大底牌4000亿 ...](https://www.thepaper.cn/newsDetail_forward_27106328)\\n snippet:本周四,AI 领域迎来重大消息,Meta 正式发布了人们等待已久的开源大模型 Llama 3。 扎克伯格在 Facebook 上发帖:Big AI news today. 与此同时,扎克伯格宣布:基于最新的 Llama 3 模型,Meta 的 AI 助手现在已经覆盖 Instagram、WhatsApp、Facebook 等全系应用,并单独开启了网站。 另外还有一个图像生成器,可根据自然语言提示词生成图片。 Meta AI 网址:https://www.meta.ai/ 同日,亚马逊云科技也宣布,Meta Llama 3 基础模型已可通过 Amazon SageMaker JumpStart来部署和推理运行。\\n Is Navigational Page?:No\"}" }<|im_end|> <|im_start|>assistant , generate config: {'temperature': 0.0, 'tool_choice': 'auto', 'stream': True, 'stop': ['<|endoftext|>', '<|im_start|>', '<|im_end|>', 'Observation:'], 'stop_token_ids': [151643, 151644, 151645]} 2024-06-04 08:37:00,075 xinference.core.model 824361 DEBUG After request chat, current serve request count: 0 for the model qwen:72b 2024-06-04 08:37:00,075 xinference.core.model 824361 DEBUG Leave wrapped_func, elapsed time: 0 s 2024-06-04 08:37:10,720 xinference.model.llm.utils 824361 DEBUG Tool call content: 最近的大语言模型新闻包括: 1. 一篇来自澎湃新闻的文章提到,2023年4月4日,自然语言处理(NLP)领域取得了显著进步,大语言模型(LLM)的发展已经接近通用人工智能的门槛。文章提到了从T5到GPT-4的最全盘点,并指出国内的模型也在快速发展[[1]()]。 2. 另一篇来自澎湃新闻的报道指出,OpenCompass对过去一年的大模型进行了全面评测,结果显示GPT-4-Turbo表现出色,国内的智谱清言GLM-4、阿里巴巴Qwen-Max和百度文心一言4.0紧随其后。尽管国内模型在某些方面接近GPT-4,但在复杂推理能力上仍有提升空间[[2]()]。 3. Meta公司发布了开源大模型Llama 3,扎克伯格宣布这个模型已应用于Meta的全系应用,包括Instagram、WhatsApp和Facebook。此外,Llama 3还支持图像生成功能[[3]()]。 这些新闻反映了大语言模型领域的快速发展和竞争,以及技术在不同应用场景中的应用。, func: None, args: None 2024-06-04 08:37:10,774 xoscar.backends.core 20232 WARNING Actor caller has created too many clients (820 >= 100), the global router may not be set.
需要修改 fastgpt 代码,打印对应流输出值,看看流是否正常返回,以及是否正常捕获流。
我也遇到同样的问题,工具调用没问题,有结果返回,在最后的输出上出现截断,只有最后的几个字。同时后台xinference能显示输出token的速度,也是qwen
![Uploading IMG_20240604_164825_edit_1036076628037216.jpg…]()
需要修改 fastgpt 代码,打印对应流输出值,看看流是否正常返回,以及是否正常捕获流。
感谢,我们还没有用代码启动过,暂时没人掌握nextjs技术,可能得先学一下了。 方便的话,能否指示一下具体是改哪个文件?再次感谢 @c121914yu
@JinCheng666 请尝试一下https://github.com/zhanghx0905/inference 看看能否解决问题
大佬们,问题解决了吗,我也是用qwen大模型,xinference上显示都是完整的输出log,fastchat前端却是被截断,只显示最后几个字符,并且问题非常频繁,很容易重现,感觉有50%的概率,主要是使用“函数调用工具”时,会出现
@JinCheng666 请尝试一下https://github.com/zhanghx0905/inference 看看能否解决问题
@zhanghx0905 请问是尝试在这个项目里问一下?我看就是fork了xinference,有什么区别吗?
请问是尝试在这个项目里问一下?我看就是fork了xinference,有什么区别吗?
这个branch为解决这个问题打了补丁,下载到本地pip install一下,看看能否满足要求
回复异常截断问题解决了,我关闭此问题。 目前出现的问题是输出了参考过程,我新开了issue
例行检查
你的版本 v4.8.2
问题描述, 日志截图 使用xinference(0.11.1)框架,vllm加速推理(0.4.1),部署本地Qwen1.5-72B-Chat-GPTQ-Int4模型,接入oneapi供fastgpt调用。 对话功能都正常,但工具调用时,长回复会出现被异常截断的问题。 正常和异常调用的log,看不出区别,异常的调用,大模型也做出完整的回复了,但fastgpt只显示了回复的最后几个token出来。
麻烦看下该如何排查这个问题。
异常工具调用的xinference日志
正常工具调用xinference日志
config.json