Python05-課時20,爬去58同城數(shù)據(jù),level1.獨立完成,搞定。

我自己獨立完成了老師留的作業(yè),很值得紀念。

import requests
from bs4 import BeautifulSoup
url = 'http://bj.58.com/pbdn/0/pn2/?PGTID=0d305a36-0000-1c2a-07bc-9768e5cf6d74&ClickID=2'
#上面的是個人鏈接。#從上往下寫函數(shù),先編寫小函數(shù),最后寫大函數(shù),然后調用前面的小函數(shù)

def get_info(url): #這是個局部函數(shù),小函數(shù),應該寫在前面,方便后面調用。    #測試了,很好用,沒問題。
    wb_data = requests.get(url)
    soup = BeautifulSoup(wb_data.text, 'lxml')
    cateagry = soup.select('#nav > div > span.crb_i > a')
    title = soup.select('h1.info_titile')
    price = soup.select('body > div.content > div > div.box_left > div.info_lubotu.clearfix > div.info_massege.left > div.price_li > span > i')
    area = soup.select('body > div.content > div > div.box_left > div.info_lubotu.clearfix > div.info_massege.left > div.palce_li > span > i')
    for cate,title2,price2,area2 in zip(cateagry,title,price,area):
        data={
            'cate':cate.get_text(),
            'title' : title2.get_text(),
            'price' : price2.get_text(),
            'area' : area2.text
        }
        print(data)
def get_all_links(url):
    wb_data = requests.get(url)
    soup = BeautifulSoup(wb_data.text, 'lxml')
    links=soup.select('#infolist > div.infocon > table > tbody > tr > td.t > a.t')
    for link in links:
        clink=link.get('href').split('?')[0]
        get_info(clink)

get_all_links(url) #執(zhí)行函數(shù)。

    ```

這是第一階段。能夠獨立完成了。

運行結果如下:

![Paste_Image.png](http://upload-images.jianshu.io/upload_images/2731375-cc7c7b764d048cb7.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
最后編輯于
?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
【社區(qū)內容提示】社區(qū)部分內容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發(fā)布,文章內容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內容

  • 譽心老師在朋友圈里發(fā)了個關于前世是誰的一個小測試。測試結果她的前世是詩人,不管老師還是我們都覺得挺準的。 于是我也...
    幸福兜了一個圈閱讀 281評論 0 0
  • 大家好,我叫劉東洋,是一位剛剛邁進大學門檻的男孩子。我對大學的理解不僅僅是出人才的地方,更是鍛煉人的地方。這也是我...
    歐陽云路閱讀 132評論 0 0
  • 【陳婷鼓勵打卡第五天】 我想我瘋啦!謝謝建明的話,讓自己瘋一瘋吧,煩躁的情緒在心里上躥下跳,就瘋一把,煩躁的你隨便...
    花花公主閱讀 211評論 0 0

友情鏈接更多精彩內容