介紹
本篇文章主要介紹如何爬取麥子學(xué)院的課程信息(本爬蟲仍是單線程爬蟲),在開始介紹之前,先來(lái)看看結(jié)果示意圖
這里寫圖片描述
這里寫圖片描述
http://www.maiziedu.com/course/list/, 第二頁(yè)變成了 http://www.maiziedu.com/course/list/all-all/0-2/, 第三頁(yè)變成了 http://www.maiziedu.com/course/list/all-all/0-3/ ,可以看到,每次翻一頁(yè),0后面的數(shù)字就會(huì)遞增1,然后就有人會(huì)想到了,拿第一頁(yè)呢?我們嘗試著將 http://www.maiziedu.com/course/list/all-all/0-1/ 放進(jìn)瀏覽器的地址欄,發(fā)現(xiàn)可以打開第一欄,那就好辦了,我們只需要使用 re.sub() 就可以很輕松的獲取到任何一頁(yè)的內(nèi)容。獲取到網(wǎng)址鏈接之后,下面要做的就是獲取網(wǎng)頁(yè)的源代碼,首先右擊查看審查或者是檢查元素,就可以看到以下界面 這里寫圖片描述
實(shí)戰(zhàn)源代碼
# coding=utf-8
import re
import requests
import sys
reload(sys)
sys.setdefaultencoding("utf8")
class spider():
def __init__(self):
print "開始爬取內(nèi)容。。。"
def changePage(self, url, total_page):
nowpage = int(re.search('/0-(\d+)/', url, re.S).group(1))
pagegroup = []
for i in range(nowpage, total_page + 1):
link = re.sub('/0-(\d+)/', '/0-%s/' % i, url, re.S)
pagegroup.append(link)
return pagegroup
def getsource(self, url):
html = requests.get(url)
return html.text
def getclasses(self, source):
classes = re.search('<ul class="zy_course_list">(.*?)</ul>', source, re.S).group(1)
return classes
def geteach(self, classes):
eachclasses = re.findall('<li>(.*?)</li>', classes, re.S)
return eachclasses
def getinfo(self, eachclass):
info = {}
info['title'] = re.search('<a title="(.*?)"', eachclass, re.S).group(1)
info['people'] = re.search('<p class="color99">(.*?)</p>', eachclass, re.S).group(1)
return info
def saveinfo(self, classinfo):
f = open('info.txt', 'a')
for each in classinfo:
f.writelines('title : ' + each['title'] + '\n')
f.writelines('people : ' + each['people'] + '\n\n')
f.close()
if __name__ == '__main__':
classinfo = []
url = 'http://www.maiziedu.com/course/list/all-all/0-1/'
maizispider = spider()
all_links = maizispider.changePage(url, 30)
for each in all_links:
htmlsources = maizispider.getsource(each)
classes = maizispider.getclasses(htmlsources)
eachclasses = maizispider.geteach(classes)
for each in eachclasses:
info = maizispider.getinfo(each)
classinfo.append(info)
maizispider.saveinfo(classinfo)
以上代碼并不難懂,基本就是正則表達(dá)式的使用,然后直接運(yùn)行就可以看到開頭我們的截圖內(nèi)容了,由于這是單線程爬蟲,所以運(yùn)行速度感覺(jué)有點(diǎn)慢,接下來(lái)還會(huì)繼續(xù)更新多線程爬蟲。