chaitin / xray

一款完善的安全评估工具,支持常见 web 安全问题扫描和自定义 poc | 使用之前务必先阅读文档
https://docs.xray.cool
Other
10.26k stars 1.81k forks source link

卡住不动 #1642

Closed Baikeryoyo closed 5 months ago

Baikeryoyo commented 2 years ago

image 这种是什么情况

Jarcis-cy commented 1 year ago

这显然是出现了异常,师傅后面还碰到过这样的情况吗?或者还记得当时是怎样触发的这个问题吗?

如果还能复现,可以反馈一下,我会积极跟进的

Baikeryoyo commented 1 year ago

这显然是出现了异常,师傅后面还碰到过这样的情况吗?或者还记得当时是怎样触发的这个问题吗?

如果还能复现,可以反馈一下,我会积极跟进的

一直占内存,只要是批量扫描,就会出现这种情况,扫描的时候,前面的不停止,然后线程一直在加

Jarcis-cy commented 1 year ago

能说一下你使用的版本和运行的命令吗?我尝试复现一下

Baikeryoyo commented 1 year ago

能说一下你使用的版本和运行的命令吗?我尝试复现一下

1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html

Jarcis-cy commented 1 year ago

能说一下你使用的版本和运行的命令吗?我尝试复现一下

1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html

理论上来讲,这个命令应该是错的,因为--basic-crawler后面应该跟上的是一个url,而不是另一个命令,我们是暂不支持这样的写法的

Baikeryoyo commented 1 year ago

能说一下你使用的版本和运行的命令吗?我尝试复现一下

1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html

理论上来讲,这个命令应该是错的,因为--basic-crawler后面应该跟上的是一个url,而不是另一个命令,我们是暂不支持这样的写法的

可是之前一直是这么用的,也能顺利运行,只是txt里面的url数量到十几个往上,就会卡住

skalvin commented 1 year ago

Can you tell me what version you are using and what command you are running? I try to reproduce

1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html

Theoretically speaking, this command should be wrong, because --basic-crawler should be followed by a url, not another command, we do not support this way of writing for the time being

then how --url-file cmd can be used? i've try to run --url-file in many many ways but didn't success can you explain how we can scan a list of URL in a text file with Xray

Jarcis-cy commented 1 year ago

Can you tell me what version you are using and what command you are running? I try to reproduce

1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html

Theoretically speaking, this command should be wrong, because --basic-crawler should be followed by a url, not another command, we do not support this way of writing for the time being

then how --url-file cmd can be used? i've try to run --url-file in many many ways but didn't success can you explain how we can scan a list of URL in a text file with Xray

url, listen, raw-request,url-file,basic-crawler,browser-crawler,这些命令都只能单独使用,所以如果想要使用url-file,可以./xray ws --uf xxx.txt,也可以在前面指定想要启动的插件(./xray ws --poc poc-yaml-xxxx --uf xxx.txt),不然就会默认按照配置文件进行主动扫描。

需要注意的是,当这样启动扫描后,xray将只会主动扫描列表上的url,并不携带任何的爬虫行为,所以这一模式只适合对某一个poc进行验证(后续版本可以变成多个poc)

所以如果想要批量的扫描一系列的目标,还是推荐使用rad主动爬虫+xray被动扫描的形式,现在rad也已经支持对一个url file进行识别并批量爬虫,欢迎体验

Baikeryoyo commented 1 year ago

Can you tell me what version you are using and what command you are running? I try to reproduce

1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html

Theoretically speaking, this command should be wrong, because --basic-crawler should be followed by a url, not another command, we do not support this way of writing for the time being

then how --url-file cmd can be used? i've try to run --url-file in many many ways but didn't success can you explain how we can scan a list of URL in a text file with Xray

url, listen, raw-request,url-file,basic-crawler,browser-crawler,这些命令都只能单独使用,所以如果想要使用url-file,可以./xray ws --uf xxx.txt,也可以在前面指定想要启动的插件(./xray ws --poc poc-yaml-xxxx --uf xxx.txt),不然就会默认按照配置文件进行主动扫描。

需要注意的是,当这样启动扫描后,xray将只会主动扫描列表上的url,并不携带任何的爬虫行为,所以这一模式只适合对某一个poc进行验证(后续版本可以变成多个poc)

所以如果想要批量的扫描一系列的目标,还是推荐使用rad主动爬虫+xray被动扫描的形式,现在rad也已经支持对一个url file进行识别并批量爬虫,欢迎体验

xray 与 rad 进行了深度融合,你又说 rad 已经支持 url file 的模式 那么正确的命令是? xray webscan --browser-crawler --url-file file.txt

Jarcis-cy commented 1 year ago

Can you tell me what version you are using and what command you are running? I try to reproduce

1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html

Theoretically speaking, this command should be wrong, because --basic-crawler should be followed by a url, not another command, we do not support this way of writing for the time being

then how --url-file cmd can be used? i've try to run --url-file in many many ways but didn't success can you explain how we can scan a list of URL in a text file with Xray

url, listen, raw-request,url-file,basic-crawler,browser-crawler,这些命令都只能单独使用,所以如果想要使用url-file,可以./xray ws --uf xxx.txt,也可以在前面指定想要启动的插件(./xray ws --poc poc-yaml-xxxx --uf xxx.txt),不然就会默认按照配置文件进行主动扫描。 需要注意的是,当这样启动扫描后,xray将只会主动扫描列表上的url,并不携带任何的爬虫行为,所以这一模式只适合对某一个poc进行验证(后续版本可以变成多个poc) 所以如果想要批量的扫描一系列的目标,还是推荐使用rad主动爬虫+xray被动扫描的形式,现在rad也已经支持对一个url file进行识别并批量爬虫,欢迎体验

xray 与 rad 进行了深度融合,你又说 rad 已经支持 url file 的模式 那么正确的命令是? xray webscan --browser-crawler --url-file file.txt

因为rad是最近版本才开放的这个功能,所以这个功能和xray还没有很好的配合,后续会优化一下。

目前的正确命令是: ./xray ws --listen 127.0.0.1:7777 ./rad --uf xxx.txt --http-proxy 127.0.0.1:7777

Jarcis-cy commented 1 year ago

目前rad的最新版在这里下载:https://stack.chaitin.com/tool/detail?id=2 版本稳定后会更新在github上