Closed corleytd closed 1 year ago
您好,我们已经收到了您的问题,会安排技术人员尽快解答您的问题,请耐心等待。请您再次检查是否提供了清晰的问题描述、复现代码、环境&版本、报错信息等。同时,您也可以通过查看官网API文档、常见问题、历史Issue、AI社区来寻求解答。祝您生活愉快~
Hi! We've received your issue and please be patient to get responded. We will arrange technicians to answer your questions as soon as possible. Please make sure that you have posted enough message to demo your request. You may also check out the API,FAQ,Github Issue and AI community to get the answer.Have a nice day!
数据量较小时可以正常使用,数据量较大时就会报错
谢谢您的反馈,根据现象,建议检查调用Paddle API前数据量较大时数据加载是否正常。
和数据加载没关系,因为这是在jieba里边使用paddle才出现的问题,代码如下:
import paddle, jieba
paddle.enable_static()
jieba.enable_paddle() # 启用PaddlePaddle的深度学习分词
words = jieba.cut(sent, use_paddle=True)
建议看下详细的报错信息,看看是什么问题呢?
和数据加载没关系,因为这是在jieba里边使用paddle才出现的问题,代码如下:
import paddle, jieba paddle.enable_static() jieba.enable_paddle() # 启用PaddlePaddle的深度学习分词 words = jieba.cut(sent, use_paddle=True)
建议看下详细的报错信息,看看是什么问题呢?
最后的报错信息是Tensor的meta信息(包括dtype,layout等)不合法,另外根据你的描述仅数据量大小不同,所以建议检查调用API前的数据,另外jieba对应的paddle版本是什么?是否兼容,是否可以使用最新的Paddle版本(报错的代码对应行号和最新的已经改变)
Since you haven\'t replied for more than a year, we have closed this issue/pr. If the problem is not solved or there is a follow-up one, please reopen it at any time and we will continue to follow up. 由于您超过一年未回复,我们将关闭这个issue/pr。 若问题未解决或有后续问题,请随时重新打开,我们会继续跟进。
bug描述 Describe the Bug
分词库jieba可以使用paddle进行深度学习分词,数据量较小时可以正常使用,数据量较大时就会报错
是环境问题还是什么问题啊?
其他补充信息 Additional Supplementary Information
No response