Scrapy的使用

創(chuàng)建一個Scrapy項目

scrapy startproject myPorject

Scrapy的項目結(jié)構(gòu)

image.png

spiders:編寫爬蟲的目錄

爬蟲的編寫規(guī)則

import scrapy
from tutorial.items import DmozItem

class DmozSpider(scrapy.Spider):
  name = 'dmoz' #爬蟲唯一名稱
  allowed_domains = ['dmoz-odp.org'] #爬取主路徑
  start_urls = [
    'https://dmoz-odp.org/Computers/Programming/Languages/Python/Books/',
    'https://dmoz-odp.org/Computers/Programming/Languages/Python/Resources/'
  ] #需要爬取的路徑

  def parse(self, response):#爬取成功后的回調(diào)函數(shù)
    sel = scrapy.selector.Selector(response)
    sites = sel.xpath('//*[@id="site-list-content"]/div/div[3]')
    items = []
    for site in sites:
      item = DmozItem()
      item['title'] = site.xpath('a/div/text()').extract()
      item['link'] = site.xpath('a/@href').extract()
      item['desc'] = site.xpath('div/text()').extract()
      items.append(item)
    print(items)
    return items

運行你的爬蟲

 scrapy crawl name
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容