Open emilygong-zhuying opened 2 years ago
不需要,理论上安装了scrapy和相关依赖后,应该没问题啊,不知道是不是scrapy版本原因,最好是官方版。
我之前去了scrapy和pillow的官网按照他们给的command安装的,所以版本也应该都是最新的,但是还是不行。然后我看scrapy说建议建一个单独的venv,所以我尝试在venv里面pip install scrapy和pillow,但是还是同样的问题。也尝试了重新clone github repo... 不知道您有没有什么别的建议,谢谢!
我看 #2 可能就是版本没安装正确,只想到这个原因。
我也有这个问题,请问解决了吗
我也有这个问题,请问解决了吗
我在我的电脑上没有解决,但是用别人的就可以。估计是我电脑里的什么dependency的问题。
不好意思时隔小半年打扰楼主,我也想问一下,目前可行的解决方法还是换一台电脑吗
w我也遇到了这个问题,大家解决了吗?C:\Users\hexiaona>cd C:\weibo_master
C:\weibo_master>scrapy crawl search -s JOBDIR=crawls/search
Traceback (most recent call last):
File "C:\ProgramData\anaconda3\Scripts\scrapy-script.py", line 10, in
w我也遇到了这个问题,大家解决了吗?C:\Users\hexiaona>cd C:\weibo_master
C:\weibo_master>scrapy crawl search -s JOBDIR=crawls/search 回溯(最近一次调用最后一次): 文件“C:\ProgramData\anaconda3\Scripts\scrapy-script.py”,第 10 行,在 sys.exit(execute())中 ^^^^^^^^^ 文件“C:\ProgramData\anaconda3\Lib\site-packages\scrapy\cmdline.py”,第 125 行,在 execute settings = get_project_settings()中 ^^^^^^^^^^^^^^^^^^^^^^^^ 文件“C:\ProgramData\anaconda3\Lib\site-packages\scrapy\utils\project.py”,第 71 行,在 get_project_settings 中 settings.setmodule(settings_modulepath, priority="project") 文件“C:\ProgramData\anaconda3\Lib\site-packages\scrapy\settings init _.py”,第 316 行,在 setmodule 中 module = importmodule(module) ^^^^^^^^^^^^^^^^^^^^^^^^ 文件“C:\ProgramData\anaconda3\Lib\importlib init _.py”,第 126 行,位于 import_module 中 return _bootstrap._gcd_import(name[level:], package, level) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ 文件“”,第 1204 行,位于 _gcd_import 中 文件“”,第 1176 行,位于 _find_and_load 中 文件“”,第 1135 行,位于 _find_and_load_unlocked 中 ModuleNotFoundError:没有名为“weibo.settings”的模块;“weibo”不是包
把所有的包都卸载了,然后问题解决了,猜可能是之前安装了weibo这个包 重名了
您好,我看了之前几个一样的问题,但是我两个路径下面都已经有init.py了,所以我不是很确定为什么会报错。然后我看了#2,但是我不是很明白我需要做些什么,是创建一个virtual environment吗?多谢!
。