基于scrapy框架的爬虫项目
在使用Telegram的爬虫之前,需要获取自己telegram的api_id
和api_hash
:
App title
和Short name
)api_id
和api_hash
。申请的api_id
和api_hash
是永久的,自己注意保密。pip install NextBSpiders
{
"api_id": "", // telgram的api_id,申请方式见《准备》
"api_hash": "", // telgram的api_hash,申请方式见《准备》
"session_name": "c:/xxxx/xxxx.session", // 保存telegram的登录session
"sqlite_db_name": "C:/xxxx/xxxx.db", // 保存telegram的sqlite数据库地址
"proxy": { // 代理信息,目前测试了clash代理
"protocal": "socks5", // 代理协议,目前仅测试了socks5协议
"ip": "127.0.0.1", // 代理地址
"port": 7890 // 代理端口
},
"group": { // 爬取的群组信息
"group_id": 1575910766, // 群组ID
"limit": 10, // 单次爬取条数,建议不超过3000
"last_message_id": -1, // 起始消息ID,-1表示从最早一条开始爬取
"offset_date": "" // 起始时间,留空表示从最早一条开始爬取,格式形如:"2020-01-01 00:00:00"
}
}
爬虫名称 | 备注 |
---|---|
telegramScanMessages | telegram的消息爬虫 |
命令 | 功能 | 备注 |
---|---|---|
nextb-telegram-run-spider | 执行telegram爬虫 | 如nextb-telegram-run-spider.exe -c .\my.json |
nextb-telegram-create-table | 创建telegram数据表 | 如nextb-telegram-create-table.exe -c .\my.json |
nextb-telegram-clear-dialog | 清理telegram对话框 | 如nextb-telegram-clear-dialog.exe -c .\my.json |
nextb-telegram-get-dialog | 获取telegram对话框 | 如nextb-telegram-get-dialog.exe -c .\my.json |
nextb-telegram-get-message | 获取telegramq群组聊天消息 | 如nextb-telegram-get-message.exe -c .\my.json |
nextb-generate-user-message-csv | 按用户统计每天的消息数量 | 如nextb-generate-user-message-csv.exe -d $db_name |
nextb-telegram-get-user-photo | 根据用户昵称下载用户头像 | 如nextb-telegram-get-user-photo.exe -c .\my.json -f $nick_files |
nextb-statics-db | 统计数据库情况 | 如nextb-statics-db.exe -d $db_name |
config.json
文件,此时必填项包括:api_id
、api_hash
、session_name
、sqlite_db_name
,proxy
代理选项根据实际网络情况填写,如果不需要代理,则proxy
填空字典:"proxy": {}
nextb-telegram-create-table -c $config.json
nextb-telegram-get-dialog -c $config.json
登录账户(如手机号,带国家号)
,在telegram的app中获取登录验证码,输入到终端,完成登录,初始化登录状态数据库group_id
,填充到配置文件中nextb-telegram-get-message -c $config.json
scrapy
爬虫开始爬取指定群组消息并存入数据库:nextb-telegram-run-spider.exe -c $config.json
session_name
和sqlite_db_name
需要独立使用,避免出现sqlite
数据库读写暂用问题nextb-telegram-run-spider
命令时,会在当前目录创建一个scrapy.cfg
文件用以保证scrapy
爬虫的执行环境。不排除在某些情况下,可能需要在执行nextb-telegram-run-spider.exe -c $config.json
的目录下,手动创建一个scrapy.cfg
文件scrapy.cfg内容如下,避免执行scrapy
出错
# Automatically created by: scrapy startproject
#
# For more information about the [deploy] section see:
# https://scrapyd.readthedocs.io/en/latest/deploy.html
[settings]
default = NextBSpiders.settings