一、目標
今天用 Python 實現(xiàn)了股票數(shù)據(jù)定向爬蟲,目標是獲取上交所和深交所所有股票的名稱和交易信息。輸出保存到文件中。
需要掌握技能: requests 、bs4 、re。
二、算法
1.進入東方財富網(wǎng)(http://quote.eastmoney.com/stocklist.html)爬取上海股票和深圳股票的股票信息,抓取到一個列表中。

使用 chrome 查看源代碼,其中可以輔助審查元素功能,快速定位。然后根據(jù)源代碼查找規(guī)律,根據(jù)源代碼,可以觀察到使用正則表達式去匹配它。
2.根據(jù)股票列表逐個到百度股票(https://gupiao.baidu.com/stock)獲取個人信息。

進入百度股票,隨便點進去一個可以查看到規(guī)律,如上圖, URL 里面的內(nèi)容跟股票的代碼是一樣的,我們可以使用*https://gupiao.baidu.com/stock *+ "股票列表代碼" +".html" 去生成 URL。

然后我們抓取里面的內(nèi)容,即股票名稱和每個股票的信息(即包括在《 dd 》《 dt 》標簽的內(nèi)容)。
3.將結(jié)果存儲到文件。
三、遇到的問題
此處感覺到奔潰,很簡單的兩個錯誤,竟然找了我一個小時,本來要去跑步的,沒解決這些問題都沒去了,內(nèi)疚ing。所以,就一定要記錄一下此刻走過的坑。
①
第一個坑,就是第一步在爬取的列表中,有些股票數(shù)據(jù)是現(xiàn)在找不到的了,所以會出現(xiàn)抓取的時候抓取到 None 的情況。剛開始還是以為自己標簽樹沒學(xué)好,后面才發(fā)現(xiàn)是有 None 的情況。所以在代碼中要增加判斷是否為空,如果獲取的信息為空,就不用再分析下去了。因為增加了 types 的 Nonetype 類型判斷,所以要 import types

②
第二個坑是輸出保存文件的時候,保存在文件中發(fā)現(xiàn)全是 Unicode 編碼,還以為是系統(tǒng)編碼環(huán)境或者 IDE 編碼環(huán)境沒設(shè)好,檢查了一遍,都設(shè)好了。下面是系統(tǒng)編碼環(huán)境和 IDE 編碼環(huán)境的設(shè)置:

設(shè)置好以后還是不行,后面進行了單步調(diào)試,發(fā)現(xiàn),到了數(shù)據(jù)字典的時候,print函數(shù)打印出來的就是 Unicode 格式,所以搜了一下解決方案,才解決了。
首先是 import json 模塊,然后再寫文件時,把代碼改一下,如下圖(注釋掉的部分是剛開始的代碼,上面的即為修改后的代碼):

四、Python中包含UTF-8編碼中文的列表或字典的輸出
在 python 下面一個包含中文字符串的列表(list)或字典,直接使用 print 會出現(xiàn)以下的結(jié)果:
dict = {"asdf": "我們的python學(xué)習(xí)"}
print dict
{'asdf': '\xe6\x88\x91\xe4\xbb\xac\xe7\x9a\x84python\xe5\xad\xa6\xe4\xb9\xa0'}
在輸出處理好的數(shù)據(jù)結(jié)構(gòu)的時候很不方便,需要使用以下方法進行輸出:
import json
print json.dumps(dict, encoding="UTF-8", ensure_ascii=False)
{"asdf": "我們的python學(xué)習(xí)"}
注意上面的兩個參數(shù)
我的經(jīng)驗:要是已經(jīng)有dict,還好。我是從mongo中拿,所以需要Json.loads,但總是有問題。所以這個方案不適合我。
在學(xué)習(xí) dic t的 update 方法時,突然發(fā)現(xiàn),一個更簡單的方法

試用了 Unicode 編碼轉(zhuǎn)換,發(fā)現(xiàn)是行不通的。
測試數(shù)據(jù)如下:
{u'\u6362\u624b\u7387': u'1.66%', u'\u6d41\u901a\u80a1\u672c': u'26.48\u4ebf', u'\u632f\u5e45': u'1.89%', u'\u5185\u76d8': u'21.59\u4e07\u624b', u'\u5916\u76d8': u'22.47\u4e07\u624b', u'\u6bcf\u80a1\u51c0\u8d44\u4ea7': u'3.60', u'\u6210\u4ea4\u989d': u'7.07\u4ebf', u'\u603b\u5e02\u503c': u'572.89\u4ebf', u'\u59d4\u6bd4': u'-6.03%', u'\u8dcc\u505c': u'\n 14.32', '\xe8\x82\xa1\xe7\xa5\xa8\xe5\x90\x8d\xe7\xa7\xb0': u'\u4e1c\u65b9\u8d22\u5bcc', u'\u6628\u6536': u'15.91', u'\u6700\u4f4e': u'15.85', u'\u5e02\u51c0\u7387': u'4.47', u'\u6700\u9ad8': u'16.15', u'\u4eca\u5f00': u'15.89', u'\u603b\u80a1\u672c': u'35.58\u4ebf', u'\u6d41\u901a\u5e02\u503c': u'426.37\u4ebf', u'\u6da8\u505c': u'17.50', u'\u6210\u4ea4\u91cf': u'44.06\u4e07\u624b', u'\u5e02\u76c8\u7387MRQ': u'80.26', u'\u6bcf\u80a1\u6536\u76ca': u'0.20', u'\u91cf\u6bd4': u'1.02'}

五、源代碼
下面是我寫的爬蟲代碼,如有錯誤,還望指出,或還能進行改進,希望讀者指出進行討論。
#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Time : 2017/3/16 19:22
# @Author : zxp
# @Site :
# @File : zxp_CrowBaiduStocks.py
# @Software: PyCharm Community Edition
import requests
import re
from bs4 import BeautifulSoup
import traceback
import types
import json
import sys
reload(sys)
sys.setdefaultencoding('utf-8')
def getHTMLText(url):
try:
r = requests.get(url, timeout=30)
r.raise_for_status()
r.encoding = r.apparent_encoding
return r.text
except:
print("")
def getStockList(lst, stockURL):
html = getHTMLText(stockURL)
soup = BeautifulSoup(html, 'html.parser')
a = soup.find_all('a')
for i in a:
try:
href = i.attrs['href']
lst.append(re.findall(r"[s][hz]\d{6}", href)[0])
except:
continue
def getStockInfo(lst, stockURL, fpath):
for stock in lst:
url = stockURL + stock + ".html"
html = getHTMLText(url)
try:
if html == "":
continue
infoDict = {}
soup = BeautifulSoup(html, 'html.parser')
stockInfo = soup.find('div', {'class':'stock-bets'})
if type(stockInfo) == types.NoneType:
continue
name = stockInfo.find_all('a',{'class':'bets-name'})
name = name[0]
infoDict.update({'股票名稱': name.text.split()[0]})
keyList = stockInfo.find_all('dt')
valueList = stockInfo.find_all('dd')
for i in range(len(keyList)):
key = keyList[i].text
val = valueList[i].text
infoDict[key] = val
f = open(fpath, 'a')
try:
f.writelines(str(json.dumps(infoDict, encoding="UTF-8", ensure_ascii=False)) + '\n')
# f.writelines(str(infoDict) + '\n')
finally:
f.close()
except:
traceback.print_exc()
continue
def main():
stock_list_url = 'http://quote.eastmoney.com/stocklist.html'
stock_info_url = 'https://gupiao.baidu.com/stock/'
output_file = 'D://BaiduStockInfo.txt'
slist = []
getStockList(slist, stock_list_url)
getStockInfo(slist, stock_info_url, output_file)
if __name__ == '__main__':
main()