Python小試牛刀

我 Python完全新手一個,才看了教程沒兩天,但是今天正好碰到難題,就決定拿Python實驗一下,沒想到竟然就成功了。那種成就感不言而喻。流程記錄一下。

動因

最后的論文決定寫和 IPO有關(guān)的內(nèi)容,本來設(shè)定的時間范圍是 01.2011 - 12.2013??墒亲蛱煺娴娜フ覕?shù)據(jù)的時候,才發(fā)現(xiàn)數(shù)據(jù)庫里的數(shù)據(jù)還沒有更新一三年最后一個季度的。先不說別的,首先就是那三個季度里的 IPO的公司,我找不到他們的行業(yè)代碼(SIC),初步篩選都做不了,又舍不得把這些公司全部剔除。

好在SEC的官網(wǎng)上有每家公司的 SIC信息,但是比較痛苦的是,SEC的搜索引擎一次只能搜索一家公司,出來一個公司的結(jié)果。也就是說,如果我要把缺的信息全部找到,我起碼得搜索近二百次。這時候,我就開始打 Python的注意了。

目的

寫之前,我已經(jīng)想好大概這個小程序有什么樣的功能。說來其實也很簡單,我那時候已經(jīng)發(fā)現(xiàn) SEC搜索引擎給出的每個公司的頁面地址是規(guī)律而固定的,我用 Excel很輕易地已經(jīng)把所有將近二百個公司的查詢結(jié)果頁面的地址寫出來了。所以,程序的目的就是便訪這些地址,把期中帶 “SIC=” 字樣的信息和后四位數(shù)字摘取出來,生成文件。

代碼

目的明確以后,憑著腦海里面對 Python那唯一一點理解,和網(wǎng)絡(luò)上無數(shù)好心人的文章,終于捉摸出來了代碼,并且運行成功。貼在這里,留個紀念,并請多指教。

out = open('C:/....../sic.txt','w') import urllib.request import re a = [ 'http://....', 'http://....', ...... ...... ...... 'http://....', 'http://....' ] for i in range(len(a)): response=urllib.request.urlopen(a[i]) html=response.read().decode("utf-8") s=re.search(r'(\SIC=....)',html) if s: print(s.group(0),file=out) else: print('sorry, no sic!',file=out) out.close()

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關(guān)閱讀更多精彩內(nèi)容

  • 繼續(xù)上次的話題,今天的目的是要抓取給定公司上市一個月內(nèi)的股價。 貌似我用了比腳笨的辦法,不過不管怎么說還是成功了。...
    小樓閱讀 263評論 0 3
  • 1 前言 作為一名合格的數(shù)據(jù)分析師,其完整的技術(shù)知識體系必須貫穿數(shù)據(jù)獲取、數(shù)據(jù)存儲、數(shù)據(jù)提取、數(shù)據(jù)分析、數(shù)據(jù)挖掘、...
    whenif閱讀 18,313評論 45 523
  • Python爬蟲入門(urllib+Beautifulsoup) 本文包括:1、爬蟲簡單介紹2、爬蟲架構(gòu)三大模塊3...
    廖少少閱讀 10,083評論 0 6
  • http header 消息通常被分為4個部分:general header即頭部, request header...
    徐薇薇閱讀 32,276評論 0 5
  • 吃過午飯,幼兒園的孩子們像往常一樣在活動廳排隊散步做午睡前的準備,我突然發(fā)現(xiàn)有一個小女孩在門后悄悄的哭泣,...
    ly1368閱讀 423評論 2 3

友情鏈接更多精彩內(nèi)容