我們之前介紹了urllib庫的使用,其是作為爬蟲入門工具來介紹的,對新手理解python爬蟲的整個流程很有幫助。在掌握了爬蟲基本思想流程后,就需要引入更高級的工具來提高我們的開發(fā)效率,這一節(jié)就開始給大家介紹Requests庫的使用。
安裝
?
安裝命令:pip install requests
庫的引入
直接上代碼:
輸出(結(jié)果類型、狀態(tài)碼、Cookies和網(wǎng)頁文本)結(jié)果為:
基本請求
Requests庫提供了http所有的請求方法:
r = requests.post("http://httpbin.org/post")
r = requests.put("http://httpbin.org/put")
r = requests.delete("http://httpbin.org/delete")
r = requests.head("http://httpbin.org/get")
r = requests.options("http://httpbin.org/get")
GET請求
最基本的get請求可以用get方法:
r = requests.get("http://httpbin.org/get")
如果想要想要傳遞參數(shù),可以利用params參數(shù):
輸出結(jié)果為:http://httpbin.org/get?key1=value1&key2=value2
如果想傳遞headers,可以利用headers參數(shù):
POST請求
對于POST請求,當我們傳遞參數(shù)的時候,一般是利用data這個參數(shù),直接上代碼:
輸出結(jié)果為:
從輸出結(jié)果中的“form”值來看傳參數(shù)成功了,并由服務(wù)器返回給我們。
有時我們不僅要把表單數(shù)據(jù)傳遞給服務(wù)器,有時還需要將json格式文件數(shù)據(jù)傳遞過去,這時就需要json.dumps()方法將json文件序列化后再傳遞,上代碼:
輸出結(jié)果如下:
如果我們想上傳一個文件,就需要用到files這個參數(shù),比如文件是a.txt,里面的內(nèi)容是“hello,word”,直接上代碼:
輸出結(jié)果為:
從返回的files值來看,文件中的內(nèi)容已被傳遞給服務(wù)器啦。
下篇待續(xù)。。。