Closed xingfanxia closed 1 year ago
-> https://github.com/jerryjliu/llama_index/releases 5.0似乎有一堆breaking changes
在本地的mac也成功复现了, 在升级0.5.0以后会报错
暂时固定版本号到0.4.40
,等会儿我为新版llama_index适配下
@GaiZhenbiao 好的, 基本上就是这个
We now use a ServiceContext container to wrap all these common arguments of passing in custom LLM’s, embedding models, chunk sizes, prompt helpers.
不过好像我改了这个还是有点问题, query
那还是会报错
修复了, 我提交一个PR
这个bug是否已存在现有issue了?
错误表现
在Railway的docker部署后 上传文件后问问题 index是None 没有对这个repo做任何改动, fresh from latest commit on main
我怀疑是docker中安装的dependency版本可能不一样
__init__() got an unexpected keyword argument 'llm_predictor'
复现操作
在Railway的docker部署后 上传文件后问问题 index是None 没有对这个repo做任何改动, fresh from latest commit on main
错误日志
运行环境
补充说明
No response