Distributed web crawler admin platform for spiders management regardless of languages and frameworks. 分布式爬虫管理平台,支持任何语言和框架
BSD 3-Clause "New" or "Revised" License
11.37k
stars
1.79k
forks
source link
selenium在不使用scrapy的脚本中正常运行, 在scrapy中卡死在请求处 #1212
Closed
tsogzark closed 1 year ago
Bug 描述 社区版v6.0 latest 普通脚本+selenium+crawlab正常运行selenium, scrapy+selenium+crawlab无法运行selenium的webdriver.get, 进入docker的项目文件夹scrapy+selenium可以正常运行selenium
复现步骤 如下代码, 已经把/dev/shm映射到宿主
普通脚本+selenium+crawlab正常运行selenium, scrapy+selenium+crawlab无法运行selenium, 一直卡在browser.get(url) 进入docker的项目文件夹scrapy+selenium可以正常运行selenium
期望结果 scrapy+selenium+crawlab可以正常运行selenium的webdriver.get.
截屏