1月份的時(shí)候就曾經(jīng)安裝過(guò)scrapy,但是失敗了,python的某些第三方庫(kù)在windows7下面經(jīng)常出現(xiàn)不兼容的問(wèn)題。今天找到了一篇博文,按照方法安裝成功了。
需要安裝 xlml
(1)安裝 ? pywin32-220.win32-py3.5.exe ?提供pywin32API
(2)安裝? Twisted-17.1.0-cp35-cp35m-win32.whl,使用pip安裝總是報(bào)vc的dll文件缺失的錯(cuò)誤,其實(shí)哪怕下個(gè)VS2015還是會(huì)報(bào)錯(cuò),到第三方庫(kù)網(wǎng)站上面下載Twisted-17.1.0-cp35-cp35m-win32.whl,然后使用 pip 本地安裝,注意,不能保存在中文文件夾里面,python不認(rèn)。
pip install E:\Download\Twisted-17.1.0-cp35-cp35m-win32.whl
pip install wheel ? ? ? ? ? ? ? ? ? # 用來(lái)安裝whl格式文件的,可裝可不裝
(3)安裝 Scrapy-1.4.0-py2.py3-none-any.whl? , 只要Twisted能夠成功安裝,scrapy就基本上沒(méi)有問(wèn)題了。還是到第三方庫(kù)網(wǎng)站上面下載對(duì)應(yīng)版本的Scrapy-1.4.0-py2.py3-none-any.whl,本地安裝即可。
pip install E:\Download\Scrapy-1.4.0-py2.py3-none-any.whl
下面是第三方庫(kù)的網(wǎng)址鏈接,應(yīng)有盡有,版本齊全,良心網(wǎng)站
Unofficial Windows Binaries for Python Extension Packages
scrapy startproject XXXXX ?#創(chuàng)建名字為XXXXX的空scrapy項(xiàng)目。
scrapy crawl XXspider #爬蟲(chóng)或者自己命名的爬蟲(chóng)開(kāi)始啟動(dòng),注意要先變更到自己的項(xiàng)目文件夾中,否則不會(huì)啟動(dòng)。例如:
cd? C:\Users\Administrator\PycharmProjects\Scrapy project\scrapytest
scrapy startproject MySpider