-
截至到2017年8月3日,根据网上的网友评论和个人的测试,发现至少在对TextSum的测试中,目前成功率最高的版本配置是Tensorflow 1.0 + Python2.7版本,Tensorflow1.0与其他目前几个主要版本的Python,或者python2.7与其他任何版本的Tensorflow都是无法顺利跑通模型的,还有一个有待检测的版本组合是Tensorflow1.2 + Python3.…
-
您好,目前在学习您的textsum源代码解决文本自动摘要问题。看到您对语料预处理阶段对数字及时间用相应的标签置换,想知道您这么处理的初衷?(因为数字组合使vocab很大吗?)毕竟新闻类对时间、地点的要求性很高,如果直接置换掉,其应用性会降低很多吧。或者说您后续有什么处理,我忽略了,求指教,谢谢!
-
我們現在已經有可以把每個token都分開的function了,我們可以建一個array[1000000]={},那對於他給的mid email直接對每個token以mod1000000計算hash值,且array[hash(token)]=1,if(array[hash(token)]從0->1), then count++(為了計算有幾種token)。對於其他每個email都做相同事情(arra…
-
Seems no code here, as the paper mentioned.
-
运行的时候报如下错误:
File "E:\deeplearning\software\Anaconda3\lib\copy.py", line 306, in _reconstruct
y.__dict__.update(state)
AttributeError: 'NoneType' object has no attribute 'update'
有遇到的吗,求解答?
zpppy updated
6 years ago
-
1. How much support does this have for PDF, EPUB, MOBI, and MarkDown?
2. Why only 2000 Token chunks when most LLMs can handle easily 4000+ Tokens? (yes "forgotten middle" is an issue for longer conte…
-
生成的结果有很多unk怎么回事啊?怎么改啊
-
-
作者您好,打扰了,我最近在做关于中文文本摘要的毕设,看到了您的代码想借鉴一下,请问您的具体运行环境是什么呀?能给我发一下训练好的模型吗?O(∩_∩)O谢谢了
-
Hi,
我在使用提供的训练好的模型进行进行预测时发现,输出" _UNK"的情况时有发生,不知这是什么原因呢。
是因为 input 的分词与训练时候有差别吗,也就是分词结果不在 vocab 当中?
README中的两条测试返回均正常。