Python-好段子爬取

import urllib.request
import urllib.parse
from lxml import etree #導(dǎo)入xpath#
import time
import json
import os

item_list=[]

def handle_request(url,page):
headers={
"User-Agnet":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36"
}
#將url和page進行拼接#
url=url%page
#如果下面的用{},可以寫成url=url.format(page)
print(url)
request=urllib.request.Request(url=url,headers=headers)
return request

def parse_content(content):
#生成對象, 構(gòu)造xpath的解析對象#
tree=etree.HTML(content)
#抓取內(nèi)容#
div_list=tree.xpath('//div/a/p')
#遍歷div列表#
print(div_list)
print(len(div_list))
for odiv in div_list:
#獲取標題#
title=odiv.xpath('//div[@class="head"]/h2/text()')[0]
print(title)
text_lt=odiv.xpath('.//div[@class="content"]/p/text()')#返回的是一個列表#
text='\n'.join(text_lt)
print(text)
item={
'標題':title,
'內(nèi)容':text,
}
#將內(nèi)容添加到列表中#
item_list.append(item)

def main():
start_page=int(input("請輸入起始頁碼:"))
end_page=int(input("請輸入結(jié)束頁碼:"))
url='http://www.haoduanzi.com/category/?1-%s.html'
#這樣寫也可以:url='http://www.haoduanzi.com/category/?1-{.}html'
for page in range(start_page,end_page+1):
request=handle_request(url,page)
content=urllib.request.urlopen(request).read().decode()
#解析內(nèi)容#
parse_content(content)
time.sleep(2)

#寫入到文件中#
string=json.dumps(item_list,ensure_ascii=False)
with open('/Users/marine/Desktop/python/duanzi.txt','w', encoding='utf8') as fp:
    fp.write(string)

if name=='main':
main()

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

友情鏈接更多精彩內(nèi)容