有很多同学反馈安装scrapy总失败,其实有个简单的方法,今天总结一下 一、爬虫框架Scarpy简介 二、安装Scarpy依赖的包 wheel error: Microsoft Visual C++ 14.0 is required. Get it with "Microsoft Visual C++ Build Tools": http://landinghub./visual-cpp-build-tools 经过多次尝试之后,发现可以单独安装上面的依赖包,就可以顺利的安装好Scarpy wheel可以直接安装 pip install wheel 下面给出剩下的3个的下载路径: 这个url是Python的非官方二进制扩展包的汇总页面,如果打开上面的URL后显示的界面是下面这个样子,可以根据模块名字搜索得到包的下载版本列表。 貌似没有找到lxml的安装包,直接按cttl+F弹出浏览器的搜索框,输入lxml,可以看到搜到了一个结果 点击这里的lxml链接直接跳转到页面后面的相关列表: 这里有好多,应该选择哪个呢?文件名里面的cp37m表示for python3.7版本,win32表示32位版本,amd64是对应amd的cpu 我的环境是Python3.7 32位版本,因此我选择的是pywin32-224-cp37-cp37m-win32.whl 点击链接后直接开始下载,下载完成可以安装,下面是安装过程 首先我升级了pip,然后安装了wheel并且测试了wheel 安装pywin32-224-cp37-cp37m-win32.whl,卸载以前安装的lxml,重新安装lxml-4.2.5-cp37-cp37m-win32.whl 下面是安装scrapy 可以看到scrapy已经安装成功,接下来就来验证一下 三、验证安装结果 我们创建一个新的Scrapy项目:
至此在Python3.7下安装Scrapy已经安装成功,可以愉快的用这个做很多有趣的事情啦 |
|