-
在使用feapder抓取某些网页时会出现网页内容解码出错的问题,如下所示:
```python
# -*- coding: utf-8 -*-
import feapder
class FuturesWarehousePlacePremium(feapder.AirSpider):
__custom_setting__ = dict(
LOG_LEV…
-
>feapder create -s first_spider 3
usage: feapder [-h] [-p] [-s] [-i] [-t] [-init] [-j] [-sj] [-c] [--params] [--setting] [--host] [--port] [--username] [--password] [--db]
f…
-
## 测试环境
- Python 3.9.12
- feapder 1.7.9
## Bug说明
今天使用feapder中的AirSpider写爬虫的时候,发现入库的数据有大量重复的,经过多方便排查应该是feapder的Bug,下面是Bug的详细描述。
## 详细说明
这里以测试Bug为目的,抓取2页数据,共计32条(每页16条)数据,正常的情况是这32条数据是都不…
-
**需知**
环境:Ubuntu20, Python3.8, 我已经解决该问题分享到这里。
**问题**
运行 Feapder 时遇到 It looks like you are using Playwright Sync API inside the asyncio loop.
其实这个问题是 Playwright 没有安装依赖组件造成的,如果运行一个简易测试案例,你会发现以下提…
-
大佬的parse解析函数写的很棒,很适合小白分析网页数据并定位节点。
但每次都需要向网站发送request,然后根据网站回传的response进行解析,有些网站又做了反爬处理,时不时就弹验证,需要手动处理。实际上,小白写代码时需要不停的获取response(也就是网站的html文件)来编写代码,那就考虑把网站的html保存到本地,然后调用feapder处理,查看了说明文档和网上的实例,都没提及这…
-
**需知**
升级feapder,保证feapder是最新版,若BUG仍然存在,则详细描述问题
> pip install --upgrade feapder
**问题**
使用浏览器渲染(Selenium)在有头浏览器模式下可以正常的获取到数据,但是在无头浏览器模式则无法获取到数据?
**截图**
![error](https://user-images.githubus…
-
注意到,`Scrapy`有[DEPTH_LIMIT,DEPTH_PRIORITY](https://docs.scrapy.org/en/latest/topics/settings.html?highlight=depth#std-setting-DEPTH_LIMIT)系列参数,用于控制深度,请问feader是否有类似的设计呢?
-
I have copied codes from test_playwright.py in a bacthspider script, and it worked wrong with warning: "It looks like you are using Playwright Sync API inside the asyncio loop. Please use the Async A…
-
m2芯片,经过调试,定位到问题产生的地方为feapder/utils/webdriver/selenium_driver.py的78行,self.driver_type,改成_driver_type就可以了
-
It happened where running with PHANTOMJS
2022-09-15 14:13:05.176 | ERROR | logging:exception:line:1481 | type object 'DesiredCapabilities' has no attribute 'PHANTOMJS'
Traceback (most recent c…
mndon updated
2 years ago