給文章起個(gè)親人而受歡迎的題目(一)

本文要解決的問(wèn)題是如何給校園網(wǎng)推送的文章起個(gè)“親人”并且“受歡迎”的名字。

詞頻反映了詞匯的親人度,而聚類分析則把受歡迎的題目篩選出來(lái)。

通過(guò)Python爬取校園網(wǎng)特定欄目文章的標(biāo)題、閱讀量和回復(fù)量,然后用jieba分詞分好所有的文章標(biāo)題,最后對(duì)文章的閱讀量和回復(fù)量進(jìn)行聚類分析,得到結(jié)果。同時(shí),也爬取所有流行公眾號(hào)咪蒙的文章題目作為一個(gè)參考。

全文分為三部分:
1 通過(guò)python 爬取校園網(wǎng)數(shù)據(jù)和傳送門咪蒙的所有文章標(biāo)題數(shù)據(jù)放入本地放入本地
2 畫(huà)出二者的云圖
3 對(duì)校園網(wǎng)標(biāo)題做聚類分析

本篇文章就第一部分進(jìn)行闡述。

第一部分:通過(guò)python 爬取校園網(wǎng)數(shù)據(jù)放入本地

#爬取'睿思 文章天地 所有的文章、閱讀量、回復(fù)量'

from bs4 import BeautifulSoup
import requests
import re
import csv
import time
import codecs


# 訪問(wèn)賬號(hào)
headers = {  # 添加header可以將程序偽裝成瀏覽器
    "Host": "www.kuaidaili.com",
    'Connection': 'keep-alive',
    'Cache-Control': 'max-age=0',
    'Upgrade-Insecure-Requests': '1',
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.87 Safari/537.36',
    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
    'Accept-Encoding': 'gzip, deflate, sdch',
    'Accept-Language': 'zh-CN,zh;q=0.8',
}

data = []

# 睿思網(wǎng)文章天地從第一頁(yè)到最后一頁(yè)
urls = ['http://rs.xidian.edu.cn/forum.php?mod=forumdisplay&fid=549&page={}'.format(str(i)) for i in range(1,15,1)]


# 編寫(xiě)函數(shù)。輸入url,獲得所有文章標(biāo)題、閱讀量和回復(fù)量
def get_attractions(url):
    wb_data = requests.get(url,headers=headers)
    soup = BeautifulSoup(wb_data.text,'lxml')
    #緩沖時(shí)間
    time.sleep(2) 
    #獲取題目、閱讀量和回復(fù)量
    titles = soup.select('tbody > tr > th > a.s.xst')
    nums_readers = soup.select('tbody > tr > td.num > em ')
    nums_backs = soup.select('tbody > tr > td.num > a')
    for title, num_read, num_back in zip(titles, nums_readers, nums_backs):
       info = {
           'title': title.get_text(),
           'num_read': num_read.get_text(),
           'num_back': num_back.get_text()
       }
       data.append(info)#存入字典,并附入data中

#for循環(huán)取出
for single_url in urls:
    get_attractions(single_url)

#存入本地csv文件
with codecs.open('/Users/zhangyi/Desktop/2.csv', 'w+', 'utf_8_sig') as csv_file:
    #csv_file.write(codecs.BOM_UTF8)
    headers = [k for k in data[0]]
    writer = csv.DictWriter(csv_file, fieldnames=headers)
    writer.writeheader()
    for dictionary in data:
        writer.writerow(dictionary)
文章標(biāo)題、閱讀量和回復(fù)量

通過(guò)python 爬取傳送門咪蒙的所有文章標(biāo)題數(shù)據(jù)放入本地

# 爬取咪蒙的文章題目
from bs4 import BeautifulSoup
import requests
import csv
import time
import codecs

# 訪問(wèn)賬號(hào)
headers = {  # 添加header可以將程序偽裝成瀏覽器
    "Host": "www.kuaidaili.com",
    'Connection': 'keep-alive',
    'Cache-Control': 'max-age=0',
    'Upgrade-Insecure-Requests': '1',
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.87 Safari/537.36',
    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
    'Accept-Encoding': 'gzip, deflate, sdch',
    'Accept-Language': 'zh-CN,zh;q=0.8',
}
nums = []
data = []
# 咪蒙的傳送門所有頁(yè)面
urls_mm = ['http://chuansong.me/account/mimeng7?start={}'.format(str(i)) for i in range(0,624,12)]

# 編寫(xiě)函數(shù)。輸入url,獲得所有文章標(biāo)題、url和時(shí)間
def get_attractions(url):
    wb_data = requests.get(url, headers=headers)
    soup = BeautifulSoup(wb_data.text, 'lxml')
    time.sleep(2)
    titles = soup.select('a.question_link')
    time_post = soup.select('span.timestamp')
    for link in titles:
        nums.append(link.get('href').split('//')[0])
    urls = ['http://chuansong.me{}'.format(str(i)) for i in nums]
    for title, time_start, url_s in zip(titles, time_post, urls):
       info = {
           'title': title.get_text(),
           'time_start': time_start.get_text(),
           'url_s': url_s
       }
       data.append(info)
    return data

#for循環(huán)取出
for single_url in urls_mm:
   get_attractions(single_url)

#存入本地csv文件
with codecs.open('/Users/zhangyi/Desktop/csvs/mm.csv', 'w+', 'utf_8_sig') as csv_file:
    #csv_file.write(codecs.BOM_UTF8)
    heads = [k for k in data[0]]
    writer = csv.DictWriter(csv_file, fieldnames=heads)
    writer.writeheader()
    for dictionary in data:
        writer.writerow(dictionary)

咪蒙文章標(biāo)題
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容