scrapy的安裝與使用

1月份的時(shí)候就曾經(jīng)安裝過(guò)scrapy,但是失敗了,python的某些第三方庫(kù)在windows7下面經(jīng)常出現(xiàn)不兼容的問(wèn)題。今天找到了一篇博文,按照方法安裝成功了。

需要安裝 xlml

(1)安裝 ? pywin32-220.win32-py3.5.exe ?提供pywin32API

(2)安裝? Twisted-17.1.0-cp35-cp35m-win32.whl,使用pip安裝總是報(bào)vc的dll文件缺失的錯(cuò)誤,其實(shí)哪怕下個(gè)VS2015還是會(huì)報(bào)錯(cuò),到第三方庫(kù)網(wǎng)站上面下載Twisted-17.1.0-cp35-cp35m-win32.whl,然后使用 pip 本地安裝,注意,不能保存在中文文件夾里面,python不認(rèn)。

pip install E:\Download\Twisted-17.1.0-cp35-cp35m-win32.whl

pip install wheel ? ? ? ? ? ? ? ? ? # 用來(lái)安裝whl格式文件的,可裝可不裝

(3)安裝 Scrapy-1.4.0-py2.py3-none-any.whl? , 只要Twisted能夠成功安裝,scrapy就基本上沒(méi)有問(wèn)題了。還是到第三方庫(kù)網(wǎng)站上面下載對(duì)應(yīng)版本的Scrapy-1.4.0-py2.py3-none-any.whl,本地安裝即可。

pip install E:\Download\Scrapy-1.4.0-py2.py3-none-any.whl

下面是第三方庫(kù)的網(wǎng)址鏈接,應(yīng)有盡有,版本齊全,良心網(wǎng)站

Unofficial Windows Binaries for Python Extension Packages


scrapy startproject XXXXX ?#創(chuàng)建名字為XXXXX的空scrapy項(xiàng)目。

scrapy crawl XXspider #爬蟲(chóng)或者自己命名的爬蟲(chóng)開(kāi)始啟動(dòng),注意要先變更到自己的項(xiàng)目文件夾中,否則不會(huì)啟動(dòng)。例如:

cd? C:\Users\Administrator\PycharmProjects\Scrapy project\scrapytest

scrapy startproject MySpider

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容