wangqifan / ZhiHu

知乎爬虫
168 stars 63 forks source link

知乎爬虫

项目介绍

这个爬虫用实验室十台电脑一起干活,可随时添加删除机器,具有良好的伸缩性,为了能够实现断点续爬和多台电脑之间的协作使用了Redis作队列, 为了保证不重复爬取使用Redis作hash表,所有爬取的任务都放到hash表中进行标记。(打算用布隆过滤器改进,更新时间待定!) 爬取太频繁会被知乎返回429(too many request),应对的策略是挂代理,一种方法是使用专业的云代理服务(有点贵),另一种是自建代理池,定时爬取互联网上免费代理ip。最后数据使用sql server存储, 最后对数据进行分析,使用百度echart.js进行画图

所用技术

其他:

数据展示:

备注 ------ [博客](http://www.cnblogs.com/zuin/)
[本人项目自建代理池](https://github.com/wangqifan/ProxyPool)
[本人项目布隆过滤器](https://github.com/wangqifan/BloomFilter)
如果需要运行程序 请装好Redis,sqlserver 并配置好 欢迎给我的项目提交代码