scrapy分布式爬蟲部署

本地部署

1.先安裝兩個庫:
scrapyd:
  • pip3 install scrapyd
    是運行scrapy爬蟲的服務程序,它支持以http命令方式發(fā)布、刪除、啟動、停止爬蟲程序。而且scrapyd可以同時管理多個爬蟲,每個爬蟲還可以有多個版本
scrapyd-client:
  • pip3 install scrapyd-client
    發(fā)布爬蟲需要使用另一個專用工具,就是將代碼打包為EGG文件,其次需要將EGG文件上傳到遠程主機上這些操作需要scrapyd-client來幫助我們完成
  • 安裝完成后可以使用如下命令來檢查是否安裝成功:
    scrapyd-deploy -h
2.修改scrapy項目目錄下的scrapy.cfg配置文件
  • 首先需要修改scrapyd.egg (項目的配置文件)

    [deploy:項目名稱]
    url=http://localhost:6800
    project=項目名稱

  • 修改完成后即可開始部署操作:版本號也可以不寫
    scrapyd-deploy -p <項目名稱>
    scrapyd-deploy -p <項目名稱> --version <版本號>

3.爬蟲部署成功后,可以運行的命令:

遠端部署

在終端上登錄服務器:
DeepinScrot-1028
配置項目運行環(huán)境
  • 配置python環(huán)境(ubuntu自帶python3環(huán)境))
  • 安裝pip3:sudo apt install python3-pip
  • 安裝scrapy:pip3 install scrapy -i https://pypi.douban.com/simple/
    如果安裝失敗添加如下依賴:
    sudo apt-get install python-dev python-pip libxml2-dev libxslt1-dev zlib1g-dev libffi-dev libssl-dev
    
  • 安裝scrapyd: pip3 install scrapyd
  • 安裝scrapyd-client: pip3 install scrapyd-client
  • 添加爬蟲運行的三方庫:
    • pip3 install requests
    • pip3 install pymysql
    • pip3 install pymongodb
    • ...........
修改scrapyd的配置文件,允許外網訪問
  • 查找配置文件的路徑:find -name default_scrapyd.
  • 修改配置文件: sudo vim 路徑
  • 將原來的bind_address注掉改為bind_address=0.0.0.0
DeepinScrot-3847
DeepinScrot-4059

注意:此時啟動scrapayd服務6800端口還不能訪問

step5:要去服務器安全組配置

  • 進入服務安全組選項添加安全組
DeepinScrot-4358
  • 添加成功后,點擊修改規(guī)則,添加如下信息(配置目的:允許訪問6800端口)
DeepinScrot-4434
DeepinScrot-4648
  • 完成后返回到云主機菜單,找到配置安全組菜單,跟換為剛才添加的安全組
DeepinScrot-4902
  • 最終完成后,在瀏覽器中輸入ip地址和端口,顯示如下圖,說明配置成功
    DeepinScrot-5152

最后部署爬蟲項目到服務器:

首先需要修改scrapyd.egg (項目的配置文件)

[deploy]

url = http://118.24.255.219:6800

project=項目名稱

之后的操作步驟與本地部署一致

如果涉及到數據庫,則需要在遠程服務器中安裝mysql

sudo apt update
sudo apt-get install mysql-server mysql-client
緊接著根據提示設置數據數據庫密碼
修改配置文件允許外網訪問
找到mysql配置文件并做如下修改:允許遠程連接
sudo vi /etc/mysql/mysql.conf.d/mysqld.cnf

將 
bind-address= 127.0.0.1 
注釋掉或則修改為
bind-address= 0.0.0.0

授權root賬戶允許遠程訪問:

grant all privileges on . to root@'%' identified by 'password' with grant option;
注意:如果還是不能遠程訪問就重啟mysql服務
sudo service mysql stop sudo service mysql start
數據庫的遷移和數據遷移
navicate可視化工具進行數據庫的遷移,和查看操作

mongodb數據庫的安裝

sudo apt-get install mongodb
啟動:
sudo service mongodb start 連接客戶端報錯參考如下網址: (輸入:sudo systemctl enable mongodb) mongo
修改配置文件的路徑
sudo vim /etc/mongodb.conf

redis數據庫的安裝

在遠端服務器上安裝redis數據庫

  • step1:
    • cd ~ (進入指定的目錄)
  • step2:
  • step3:
    • 解壓下載的文件: tar -zxvf redis-4.0.10.tar.gz
  • step4:
    • 復制,放到/usr/local目錄下面( 先創(chuàng)建文件夾/usr/local/redis/ )
    • mv ./redis-4.0.11/* /usr/local/redis/
  • step5:進入redis目錄
    • cd /usr/local/redis/
  • step6:
    • sudo make
    • sudo make test
    • sudo make install
  • step7:
    • sudo cp /usr/local/redis/redis.conf /etc/redis/
  • step8:
    • 修改配置文件,允許外網訪問 sudo vim redis.cnf
    • 將配置文件中的bind修改為: bind=0.0.0.0
    • 將配置文件中的保護模式設置為NO
  • step9:
    • 啟動redis服務: sudo redis-server redis.cnf
  • step10:鏈接客戶端
    • redis-cli -h ip -p port

分布式爬蟲項目的部署

step1將項目修改為分布式

  • step1

pip3 install scrapy-redis

  • step2
    修改settings.py設置文件:
#這里表示啟用scrapy-redis里的去重組件,不實用scrapy默認的去重
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"

#使用了scrapy-redis里面的調度器組件,不使用scrapy默認的調度器
SCHEDULER = "scrapy_redis.scheduler.Scheduler"

#允許暫停,redis請求的記錄不會丟失,不清除Redis隊列,可以恢復和暫停
SCHEDULER_PERSIST = True

#下面這些是request的隊列模式
#一般情況下使用第一種
#scrapy-redis默認的請求隊列形式(有自己的優(yōu)先級順序)
#是按照redis的有序集合排序出隊列的
#SCHEDULER_QUEUE_CLASS = "scrapy_redis.queue.SpiderPriorityQueue"

# scrapy_redis.pipelines.RedisPipeline 必須啟用,才能夠將數據存儲到redis數據庫中
ITEM_PIPELINES = {
    'example.pipelines.ExamplePipeline': 300,
    'scrapy_redis.pipelines.RedisPipeline': 400,
}

# 指定要存儲的redis的主機的ip,默認存儲在127.0.0.1

REDIS_HOST = 'redis的主機的ip'

# 定要存儲的redis的主機的port,默認6379

REDIS_PORT = '6379'

  • step2

    • 修改爬蟲文件
  • step3

    • 部署爬蟲項目
  • step4

    • 啟動爬蟲文件
  • step5

    • 給爬蟲添加起始任務 lpush key value(起始url)
?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
【社區(qū)內容提示】社區(qū)部分內容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發(fā)布,文章內容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內容

友情鏈接更多精彩內容