__author__ = 'Lee'
from bs4 import BeautifulSoup
import requests
import time
url = 'https://bj.lianjia.com/zufang/101101613377.html'
headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36',
}
web_data = requests.get(url,headers=headers)
soup = BeautifulSoup(web_data.text,'lxml')
title = soup.title.text #房名
address = soup.select('div.zf-room > p > a')[0].text #地址
price = soup.select(' div.price > span.total')[0].text + '元'
area = (soup.select('div.zf-room > p ')[0].text).split(':')[-1]
home_url = url
print({'title':title ,
'address':address,
'price':price,
'area':area,
'home_url':home_url
})
python爬取鏈家租房之獲取房屋頁(yè)面的詳細(xì)信息(房名,地址,房?jī)r(jià),面積,url)
最后編輯于 :
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。
相關(guān)閱讀更多精彩內(nèi)容
- 因?yàn)槠谀┛荚嚨木壒剩敬蛩阋粋€(gè)星期結(jié)束的爬蟲(chóng),拖了很久,不過(guò),也有好處:之前寫(xiě)的時(shí)候總是被反爬,這幾天復(fù)習(xí)之余寫(xiě)了...
- 本文在有些需要解釋說(shuō)明的地方引用了知乎文章屌絲想買(mǎi)房……和Scrapy入門(mén)教程 本篇教程中將按照下列五步實(shí)現(xiàn)標(biāo)題所...