HUANGZHIHAO1994 / weibo-analysis-and-visualization

使用python抓取微博数据并对微博文本分析和可视化,LDA(树图)、关系图、词云、时间趋势(折线图)、热度地图、词典情感分析(饼图和3D柱状图)、词向量神经网络情感分析、tfidf聚类、词向量聚类、关键词提取、文本相似度分析等
MIT License
794 stars 136 forks source link

爬虫链接所爬取的content中并无keyword一列信息 #2

Closed Verasince1997 closed 4 years ago

Verasince1997 commented 4 years ago

拿着作者本身的content.json和coment.json 我能正确运行senti_anly.py
而缺少第二列为keyword的content运行senti_anly.py是会报错的 我通过命令行 向content.json中加入了keyword一列 只不过是加在最后一列 但这样是无法运行senti_anly.py的 所以作者您是怎么拿到原本的带keyword一列的json文件的呢

Verasince1997 commented 4 years ago

我放弃通过修改json文件 转向修改爬虫文件 在items.py中添加keyword = Field() 在weibo_spider.py中crawl_time前一行添加tweet_item['keyword'] = "你的关键词" 这样就可以达到Agu_content的格式 才能运行senti_analy.py及之后的3DBar Pie画图