Selenium+Beautiful爬取京東商品

流程框架

  • 搜索關鍵字,利用selenium驅動瀏覽器搜索關鍵字
  • 分析頁碼并翻頁,得到商品頁碼數(shù),模擬翻頁,得到后續(xù)頁碼的商品列表
  • 分析提取商品內(nèi)容,利用PyQuery分析源碼,解析得到商品列表
  • 存儲至MongoDB,將商品列表信息存儲到數(shù)據(jù)庫
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.common.exceptions import TimeoutException
from bs4 import BeautifulSoup
import json
broswer = webdriver.Chrome()
wait = WebDriverWait(broswer, 10)
def search():
    try:
        broswer.get('https://www.jd.com')
        input = wait.until(
            EC.presence_of_element_located((By.CSS_SELECTOR, '#key'))
        )
        submit = wait.until(
            EC.element_to_be_clickable((By.CSS_SELECTOR, '#search > div > div.form > button')) 
        )
        input.send_keys('口罩')
        submit.click()
        total = wait.until(
            EC.presence_of_element_located((By.CSS_SELECTOR, '#J_bottomPage > span.p-skip > em:nth-child(1) > b'))
        ) 
        get_products()
        return total.text
    except TimeoutException:
        return search()
def next_page(pager_number):
    try:
        input = wait.until(
                EC.presence_of_element_located((By.CSS_SELECTOR, '#J_bottomPage > span.p-skip > input'))
            )
        submit = wait.until(
                EC.element_to_be_clickable((By.CSS_SELECTOR, '#J_bottomPage > span.p-skip > a')) 
            )
        input.clear()
        input.send_keys(pager_number)
        submit.click()
        wait.until(EC.text_to_be_present_in_element(
            (By.CSS_SELECTOR,'#J_bottomPage > span.p-num > a.curr'), str(pager_number))
                  )
        get_products()
    except TimeoutException:
        return next_page(pager_number)   
def get_products():
    wait.until(
            EC.presence_of_element_located((By.CSS_SELECTOR, '#J_bottomPage > span.p-skip > em:nth-child(1) > b'))
        ) 
    html = broswer.page_source
    soup = BeautifulSoup(html, 'lxml')
    titles = soup.select('.gl-item .p-name.p-name-type-2 a em')
    urls = soup.select('.gl-item .p-img a')
    
    for title, url in zip(titles, urls):
        product = {
            'title':title.get_text(),
            'url':url['href']
        }
        write_to_file(product)
        print(product)
def write_to_file(product):
    with open('JD_product.txt', 'a', encoding='utf-8') as f:
        f.write(json.dumps(product, ensure_ascii=False) + '\n')
        f.close
def main():
    total = int(search())
    for i in range(2, total+1):
        next_page(i)
    broswer.close()
if __name__ == '__main__':
    main()
最后編輯于
?著作權歸作者所有,轉載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內(nèi)容

  • 本文是我接觸爬蟲以來,第三套爬蟲的代碼記錄博客。本文主要是記錄淘寶搜索美食的頁面信息,工具是selenium 和 ...
    小白猿閱讀 1,159評論 1 9
  • 前言 前面介紹了使用selenium和chromedriver通過模擬瀏覽器運行的方式可以做到在瀏覽器中看到是什么...
    浩成聊技術閱讀 3,108評論 0 2
  • 人之初,性本惡。 男人的本性尤其如此。 茍不掀,性乃謙。 人性之惡,平時都躲在道德,法律,禮儀的天鵝絨幕后假寐。一...
    謎樣男人閱讀 979評論 1 3
  • 昨天的談話關鍵詞是:協(xié)同工作 因為內(nèi)部的合作問題,現(xiàn)在的團隊協(xié)同效果還未發(fā)揮出來,L與Q的100個詢單的共同目標現(xiàn)...
    建民_文閱讀 1,110評論 2 2
  • 說實話我原來挺瘋的,小學的時候天天追著喜歡的男生跑,樂此不?!,F(xiàn)在偶爾會想起那段明亮的日子,不需要想太多的事...
    清池i閱讀 174評論 0 0

友情鏈接更多精彩內(nèi)容