z-bool / Venom-Crawler

毒液爬行器:专为捡洞而生的爬虫神器
187 stars 25 forks source link

Venom-Crawler - 为Venom-Transponder而生的爬虫神器

郑重声明:文中所涉及的技术、思路和工具仅供以安全为目的的学习交流使用,任何人不得将其用于非法用途以及盈利等目的,否则后果自行承担

依赖安装 · 使用说明 · 注意事项 · 技术交流

依赖安装

go mod tidy # go mod依赖加载
cd cmd
go build . #然后把cmd.exe重命名一下就好

使用说明

不再缝合入Gospider原因

感觉Katana+Crawlergo的爬行结果以及足够全,再加入Gospider可能会造成时间的大量冗余,个人比较倾向于基于Chromium的爬行结果,参数可靠。 其他说明: 此项目目前只从爬虫角度解决URL爬取需求,个人觉得没必要缝合dirsearch,为了防止功能冗余,请配合dirseach使用,在后续开发的扫描器中才是发包量最大的(自动化Fuzz挖洞)。 功能介绍:

-headless   是否让爬行时候headless结果可见
-chromium   如果在代码执行过程中报查询不到环境中的浏览器, 将Chrome或者Chromium路径填入即可
-headers    爬行要求带入的JSON字符串格式的自定义请求头,默认只有UA
-maxCrawler URL启动的任务最大的爬行个数,这个针对Crawlergo配置
-mode       爬行模式,simple/smart/strict,默认smart,如果simple模式katana不爬取JS解析的路径
-proxy      配置代理地址,支持扫描器、流量转发器、Burp、yakit等
-blackKey   黑名单关键词,用于避免被爬虫执行危险操作,用,分割,如:logout,delete,update
-url        执行爬行的单个URL
-urlTxtPath 如果需求是批量爬行URL,那需要将URL写入txt,然后放txt路径
-encodeUrlWithCharset  是否对URL进行编码,Crwalergo的功能但katana跑完的结果走Crawlergo后也会被编码
-depth      爬行深度,默认3

不联动其他工具:

.\Venom.exe -urlTxtPath .\text.txt
.\Vebom.exe -url    https://www.sf-express.com

image-20230803132329679

image-20230803002024945

联动其他工具:

.\Venom.exe -urlTxtPath .\text.txt -proxy http://127.0.0.1:9090
.\Vebom.exe -url  https://www.sf-express.com -proxy http://127.0.0.1:9090
image-20230803122108607

上图的使用思路将,爬虫爬取的URL通过Proxy代理转发给流量转发器,再由流量转发器转发给代理工具/漏扫。

如果想在爬取过程中查看爬行效果的话,可以在命令后面带上-headless 就会启动浏览器界面。

image-20230803123044626

这还不开启捡洞模式???

注意事项

浏览器上下文创建错误:exec: "google-chrome": executable file not found in %path%

说明浏览器没有安装或者%path% 环境里面没有chromium的地址(用edge/chrome/chromium都可以解决)。

image-20230804230857816 image-20230804230941712

这里搭配-chromium参数即可。

技术交流

阿呆攻防公众号