Python爬取鏈家網(wǎng)上海市租房信息

使用Python進行上海市租房信息爬取,通過requests + Beautifulsoup對網(wǎng)頁內(nèi)容進行抓取和數(shù)據(jù)提取。

import requests
from bs4 import BeautifulSoup
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.2669.400 QQBrowser/9.6.10990.400',
'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
'Accept-Encoding':'gzip, deflate, sdch',
'Accept-Language':'zh-CN,zh;q=0.8',
'Connection':'keep-alive',
'Referer':'https://www.baidu.com/link?url=znRkKNPxTXXmN7m4lWy28vWXLWyx_hTEW4bLC5Pi8YR_s5wAdQk4FExi8Fz6HxHc&wd=&eqid=f2ad9a7e00007f1200000004594a3116'         
}
urls = [] # 定義空列表,用于創(chuàng)建所有的爬蟲鏈接

#基于for循環(huán),構(gòu)造完整的爬蟲鏈接
for i in ['zufang']:
    url = 'http://sh.lianjia.com/%s/' %i       
    for j in list(range(1,2075)): 
        urls.append('http://sh.lianjia.com/%s/d%si1s5' %(i,j)) #拼接所有需要爬蟲的鏈接

#創(chuàng)建csv文件,用于后面的保存數(shù)據(jù)
file = open('D:/jupyter/lianjia.csv','w')

def readpage(url):
    try:
        res = requests.get(url)
    except ConnectionError as e:
        return None
    return res

def viewsubway(res2):
    try:
        view = res2.find_all('span',{'class':'fang-subway-ex'})[0].find_all('span')[0].text
    except IndexError as e:
        return None
    return view

for url in urls: #基于for循環(huán),抓取出所有滿足條件的標簽和屬性列表,存放在find_all中
    res = readpage(url)
    res = res.text.encode(res.encoding).decode('utf-8')
    soup = BeautifulSoup(res,'html.parser')
    find_all = soup.find_all(name = 'div',attrs = {'class':'info-panel'})  
    for i in list(range(len(find_all))):  #基于for循環(huán),抓取出所需的各個字段信息
        title = find_all[i].find('a')['title'] #每套租房的標語
        res2 = find_all[i]
        name = res2.find_all('div',{'class':'where'})[0].find_all('span')[0].text #租房所在的小區(qū)名稱
        room_type = res2.find_all('div',{'class':'where'})[0].find_all('span')[1].text #租房的戶型
        size = res2.find_all('div',{'class':'where'})[0].find_all('span')[2].text[:-3]#租房的面積

        #采用列表解析式,刪除字符串的首位空格
        info = [i.strip() for i in res2.find_all('div',{'class':'con'})[0].text.split('\n')]
        region = info[1] #租房所在的區(qū)
        area = info[2] #租房所在的街道地域
        louceng = info[4][:2] #租房所在的樓層
        chaoxiang = info[7][3:] #租房的朝向 

        #每套租房的租金
        price = res2.find_all('div',{'class':'price'})[0].find_all('span')[0].text
        
        #地鐵站及地鐵
        view = viewsubway(res2)
        if view != None:
            subway = view[2:5] #租房附近的地鐵線
            distance = view[-4:-1] #租房到地鐵站的距離
        else:
            subway = '\0'
            distance = '\0'
        
        #將上面的各字段信息值寫入并保存到csv文件中
        file.write(','.join((name.encode('gbk','ignore'),room_type.encode('gbk','ignore'),size.encode('gbk','ignore'),region.encode('gbk','ignore'),area.encode('gbk','ignore'),louceng.encode('gbk','ignore'),chaoxiang.encode('gbk','ignore'),price.encode('gbk','ignore'),subway.encode('gbk','ignore'),distance.encode('gbk','ignore'),title.encode('gbk','ignore'))) + '\n')

關閉文件(否則數(shù)據(jù)不會寫入到csv文件中)
file.close()```
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內(nèi)容

  • # Python 資源大全中文版 我想很多程序員應該記得 GitHub 上有一個 Awesome - XXX 系列...
    aimaile閱讀 26,832評論 6 427
  • 聲明:本文講解的實戰(zhàn)內(nèi)容,均僅用于學習交流,請勿用于任何商業(yè)用途! 一、前言 強烈建議:請在電腦的陪同下,閱讀本文...
    Bruce_Szh閱讀 13,000評論 6 28
  • 項目背景 隨著畢業(yè)季和暑假的到來,各大城市又要迎來一批小鮮肉了,擺在大家面前的第一件事就是關于住宿的事了。眾所周知...
    揚道閱讀 2,159評論 2 8
  • GitHub 上有一個 Awesome - XXX 系列的資源整理,資源非常豐富,涉及面非常廣。awesome-p...
    若與閱讀 19,319評論 4 417
  • 在波爾圖的那個晚上,下雨加大風,天氣極陰冷。我們一行人走在市區(qū)里,我只想快快回旅店找個溫暖的葡萄牙餐廳吃頓大餐回復...
    途可小姐閱讀 1,430評論 9 20

友情鏈接更多精彩內(nèi)容