欧美一区二区三区老妇人-欧美做爰猛烈大尺度电-99久久夜色精品国产亚洲a-亚洲福利视频一区二区

Python爬蟲

--安裝爬蟲需要的庫
C:\python37>pip install requests
Collecting requests
  Downloading https://files.pythonhosted.org/packages/7d/e3/20f...84b/requests-2.21.0-py2.py3-none-any.whl (57kB)
    100% |████████████████████████████████| 61kB 225kB/s
Collecting urllib3<1.25,>=1.21.1 (from requests)
  Downloading https://files.pythonhosted.org/packages/62/00/ee1...79e/urllib3-1.24.1-py2.py3-none-any.whl (118kB)
    100% |████████████████████████████████| 122kB 585kB/s
Collecting idna<2.9,>=2.5 (from requests)
  Downloading https://files.pythonhosted.org/packages/14/2c/cd55...4c9/idna-2.8-py2.py3-none-any.whl (58kB)
    100% |████████████████████████████████| 61kB 1.3MB/s
Collecting chardet<3.1.0,>=3.0.2 (from requests)
  Downloading https://files.pythonhosted.org/packages/bc/a9/01ffe...b8/chardet-3.0.4-py2.py3-none-any.whl (133kB)
    100% |████████████████████████████████| 143kB 267kB/s
Collecting certifi>=2017.4.17 (from requests)
  Downloading https://files.pythonhosted.org/packages/9f/e0/ac...e8a/certifi-2018.11.29-py2.py3-none-any.whl (154kB)
    100% |████████████████████████████████| 163kB 273kB/s
Installing collected packages: urllib3, idna, chardet, certifi, requests
Successfully installed certifi-2018.11.29 chardet-3.0.4 idna-2.8 requests-2.21.0 urllib3-1.24.1

什么是Urllib
Python內(nèi)置的Http請求庫
urllib.request 請求模塊    模擬瀏覽器
urllib.error 異常處理模塊
urllib.parse url解析模塊    工具模塊,如:拆分、合并
urllib.robotparser robots.txt    解析模塊 
 
urllib是Python自帶的標(biāo)準(zhǔn)庫,無需安裝,直接可以用。
提供了如下功能:
    網(wǎng)頁請求
    響應(yīng)獲取
    代理和cookie設(shè)置
    異常處理
    URL解析
爬蟲所需要的功能,基本上在urllib中都能找到,學(xué)習(xí)這個標(biāo)準(zhǔn)庫,可以更加深入的理解后面更加便利的requests庫。

2和3的區(qū)別
Python2
import urllib2
response = urllib2.urlopen('http://www.baidu.com');

Python3
import urllib.request
response =urllib.request.urlopen('http://www.baidu.com');

用法:
urlOpen 發(fā)送請求給服務(wù)器
urllib.request.urlopen(url,data=None[參數(shù)],[timeout,]*,cafile=None,capath=None,cadefault=false,context=None)
例子:
import urllib.requests
response=urllib.reqeust.urlopen('http://www.baidu.com')
print(response.read().decode('utf-8'))

創(chuàng)新互聯(lián)專注于寧陜網(wǎng)站建設(shè)服務(wù)及定制,我們擁有豐富的企業(yè)做網(wǎng)站經(jīng)驗。 熱誠為您提供寧陜營銷型網(wǎng)站建設(shè),寧陜網(wǎng)站制作、寧陜網(wǎng)頁設(shè)計、寧陜網(wǎng)站官網(wǎng)定制、小程序定制開發(fā)服務(wù),打造寧陜網(wǎng)絡(luò)公司原創(chuàng)品牌,更為您提供寧陜網(wǎng)站排名全網(wǎng)營銷落地服務(wù)。

文章名稱:Python爬蟲
當(dāng)前地址:http://www.chinadenli.net/article48/iijoep.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供動態(tài)網(wǎng)站虛擬主機(jī)軟件開發(fā)微信公眾號App設(shè)計電子商務(wù)

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

外貿(mào)網(wǎng)站建設(shè)