今天就跟大家聊聊有關(guān)Python爬蟲如何正則表達(dá)式,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結(jié)了以下內(nèi)容,希望大家根據(jù)這篇文章可以有所收獲。

創(chuàng)新互聯(lián)主營(yíng)津南網(wǎng)站建設(shè)的網(wǎng)絡(luò)公司,主營(yíng)網(wǎng)站建設(shè)方案,app開發(fā)定制,津南h5重慶小程序開發(fā)搭建,津南網(wǎng)站營(yíng)銷推廣歡迎津南等地區(qū)企業(yè)咨詢
爬蟲——爬蟲中使用正則表達(dá)式
下面我們嘗試爬取內(nèi)涵段子網(wǎng)站:http://www.neihan8.com/article/list_5_1.html
打開之后,當(dāng)你進(jìn)行翻頁(yè)的時(shí)候,不難注意到,url地址的變化:
第一頁(yè)url: http: //www.neihan8.com/article/list_5_1 .html
第二頁(yè)url: http: //www.neihan8.com/article/list_5_2 .html
第三頁(yè)url: http: //www.neihan8.com/article/list_5_3 .html
第四頁(yè)url: http: //www.neihan8.com/article/list_5_4 .html
這樣,我們把url規(guī)律找到了,要想爬取所有的段子,只需要修改一個(gè)參數(shù)即可。下面,我們就開始一步一步將所有的段子爬取下來(lái)。
第一步:獲取網(wǎng)頁(yè)數(shù)據(jù)(網(wǎng)頁(yè)上全部?jī)?nèi)容)
1.按照我們之前的用法,我們需要寫一個(gè)加載頁(yè)面的方法。
這里我們定義一個(gè)類,將url請(qǐng)求作為一個(gè)成員方法處理。
我們創(chuàng)建一個(gè)duanzi_spider.py文件。
然后定義一個(gè)Spider類,并且添加一個(gè)加載頁(yè)面的成員方法。
#!/usr/bin/python3
# -*- coding:utf-8 -*-
import requests
class Spider(object):
"""
一個(gè)爬蟲類
"""
def loadPage(self, url):
"""
下載指定url頁(yè)面的內(nèi)容
:return:
"""
# User-Agent頭
header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko)
Chrome/39.0.2171.71 Safari/537.36'}
response = requests.get(url = url, headers = header)
html = response.content.decode("gb18030")
# 打印頁(yè)面內(nèi)容
print(html)
# 返回頁(yè)面內(nèi)容
return html2.寫main函數(shù)測(cè)試loadPage()方法
if __name__ == '__main__':
# 實(shí)例化類對(duì)象
my_spider = Spider()
# 讓用戶輸入需爬取頁(yè)面的頁(yè)碼
page = int(input("請(qǐng)輸入你需要爬取的頁(yè)碼:"))
# 拼接用戶需爬取頁(yè)面的url地址
url = "http://www.neihan8.com/article/list_5_{}.html".format(page)
html = my_spider.loadPage(url)第二步:篩選數(shù)據(jù)
我們已經(jīng)得到了整個(gè)頁(yè)面的數(shù)據(jù)。但是,里面有很多內(nèi)容我們并不需要,所以下一步我們需要對(duì)上面爬取的內(nèi)容進(jìn)行篩選。如果篩選,這里就用到了我們前面講到的正則表達(dá)式。
首先
import re
然后:在我們得到的html中進(jìn)行篩選匹配。
我們需要一個(gè)匹配規(guī)則:
我們可以打開內(nèi)涵段子的網(wǎng)頁(yè),鼠標(biāo)點(diǎn)擊右鍵“查看源代碼”,你會(huì)發(fā)現(xiàn),我們需要的每個(gè)段子的內(nèi)容都是在一個(gè)<div>標(biāo)簽中,而且每個(gè)div都有一個(gè)屬性class="f18 mb20"。
所以,我們只需要匹配到網(wǎng)頁(yè)中所有<div class="f18 mb20">到</div>的數(shù)據(jù)就可以了。
根據(jù)正則表達(dá)式,我們可以推算出一個(gè)公式是:
<div class="f18 mb20">(.*?)</div>
這個(gè)表達(dá)式實(shí)際上就是匹配到所有div中class="f18 mb20"里面的內(nèi)容
然后將這個(gè)正則應(yīng)用到代碼中,我們會(huì)得到以下代碼:
#!/usr/bin/python3
# -*- coding:utf-8 -*-
import requests
import re
class Spider(object):
"""
一個(gè)爬蟲類
"""
def loadPage(self, url):
"""
下載指定url頁(yè)面的內(nèi)容
:return:
"""
# User-Agent頭
header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko)
Chrome/39.0.2171.71 Safari/537.36'}
response = requests.get(url = url, headers = header)
html = response.content
return html.decode("gb18030")
def screenPage(self, html):
"""
篩選html內(nèi)容,返回列表
:param html:
:return:
"""
# <div class="f18 mb20">...</div>
pattern = re.compile(r'<div class="f18 mb20">(.*?)</div>', re.S)
item_list = pattern.findall(html)
return item_list
if __name__ == '__main__':
# 實(shí)例化類對(duì)象
my_spider = Spider()
# 讓用戶輸入需爬取頁(yè)面的頁(yè)碼
page = int(input("請(qǐng)輸入你需要爬取的頁(yè)碼:"))
# 拼接用戶需爬取頁(yè)面的url地址
url = "http://www.neihan8.com/article/list_5_{}.html".format(page)
# 下載網(wǎng)頁(yè)內(nèi)容
html = my_spider.loadPage(url)
# 篩選數(shù)據(jù)
item_list = my_spider.screenPage(html)這里需要注意的是re.S是正則表達(dá)式中匹配的一個(gè)參數(shù)。
如果沒(méi)有re.S,則是只匹配一行中有沒(méi)有符合規(guī)則的字符串,如果沒(méi)有則下一行重新匹配。
如果加上re.S則是將所有的字符串作為一個(gè)整體進(jìn)行匹配,findall將所有匹配到的結(jié)果返回列表中。
第三步:保存數(shù)據(jù)
我們可以將所有的段子存放在文件中。
def writePage(self, list):
"""
以追加的形式存儲(chǔ)篩選后的內(nèi)容
:param list: 篩選后的數(shù)據(jù),列表形式
:return:
"""
with open(self.file_name, "a", encoding = "utf-8") as f:
for content in list:
# 段子內(nèi)容:因?yàn)槎巫又杏泻芏?lt;p>,</p>,<br />。。。,還有一些轉(zhuǎn)義字符。在這里作下替換
content = content.replace("…", "…").replace("“", "“").replace("”", "”")
content = content.replace(" ", "").replace("\t", "").replace(":", ":")
content = content.replace("<p>", "").replace("</p>", "").replace("<br />", "").replace(" ", "")
content = content.replace("\u3000", "").replace("\r\n\r\n", "\r\n")
content = content.strip()
# 寫入一個(gè)段子的內(nèi)容
f.write(content)
# 我是分割線
f.write("*" * 30)第四步:完整的程序
#!/usr/bin/python3
# -*- coding:utf-8 -*-
import requests
import re
class Spider(object):
"""
一個(gè)爬蟲類
"""
def __init__(self, start_page, end_page):
"""
類的初始化函數(shù)
:param start_page:
:param end_page:
:return:
"""
self.start_page = start_page
self.end_page = end_page
self.file_name = "duanzi.txt"
def loadPage(self, url):
"""
下載指定url頁(yè)面的內(nèi)容
:return:
"""
# User-Agent頭
header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko)
Chrome/39.0.2171.71 Safari/537.36'}
response = requests.get(url = url, headers = header)
html = response.content
return html.decode("gb18030")
def screenPage(self, html):
"""
篩選html內(nèi)容,返回列表
:param html:
:return:
"""
# <div class="f18 mb20">...</div>
pattern = re.compile(r'<div class="f18 mb20">(.*?)</div>', re.S)
item_list = pattern.findall(html)
return item_list
def writePage(self, list):
"""
以追加的形式存儲(chǔ)篩選后的內(nèi)容
:param list: 篩選后的數(shù)據(jù),列表形式
:return:
"""
with open(self.file_name, "a", encoding = "utf-8") as f:
for content in list:
# 段子內(nèi)容:因?yàn)槎巫又杏泻芏?lt;p>,</p>,<br />。。。,還有一些轉(zhuǎn)義字符。在這里作下替換
content = content.replace("…", "…").replace("“", "“").replace("”", "”")
content = content.replace(" ", "").replace("\t", "").replace(":", ":")
content = content.replace("<p>", "").replace("</p>", "").replace("<br />", "").replace(" ", "")
content = content.replace("\u3000", "").replace("\r\n\r\n", "\r\n").replace("\r\n", "\n")
content = content.strip()
# 寫入一個(gè)段子的內(nèi)容
f.write(content)
# 我是分割線
f.write("*" * 30)
def run(self):
"""
讓爬蟲開始工作
:return:
"""
# 循環(huán)處理我們需要爬取的頁(yè)面
for page in range(self.start_page, self.end_page + 1):
# 拼接當(dāng)前頁(yè)碼page的url地址
url = "http://www.neihan8.com/article/list_5_{}.html".format(str(page))
print("正在下載第{}頁(yè)".format(str(page)))
# 下載url對(duì)應(yīng)的全部?jī)?nèi)容
html = self.loadPage(url)
# 篩選數(shù)據(jù)
item_list = self.screenPage(html)
# 存儲(chǔ)篩選后的數(shù)據(jù)
self.writePage(item_list)
# 主函數(shù)
if __name__ == '__main__':
# 讓用戶輸入需爬取頁(yè)面的起始頁(yè)碼
start_page = int(input("請(qǐng)輸入您需要爬取的起始頁(yè):"))
# 讓用戶輸入需爬取頁(yè)面的終止頁(yè)碼
end_page = int(input("請(qǐng)輸入您需要爬取的終止頁(yè):"))
# 實(shí)例化類對(duì)象
mySpider = Spider(start_page, end_page)
# 讓爬蟲開始工作
mySpider.run()最后,我們執(zhí)行上面的代碼,完成后查看當(dāng)前路徑下的duanzi.txt文件,里面已經(jīng)有我們要的內(nèi)涵段子。
以上便是一個(gè)非常精簡(jiǎn)的小爬蟲程序,使用起來(lái)很方便,如果想要爬取其他網(wǎng)站的信息,只需要修改其中某些參數(shù)和一些細(xì)節(jié)就行了。
看完上述內(nèi)容,你們對(duì)Python爬蟲如何正則表達(dá)式有進(jìn)一步的了解嗎?如果還想了解更多知識(shí)或者相關(guān)內(nèi)容,請(qǐng)關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝大家的支持。
分享名稱:Python爬蟲如何正則表達(dá)式
文章網(wǎng)址:http://www.chinadenli.net/article22/gisscc.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供企業(yè)建站、網(wǎng)站設(shè)計(jì)、網(wǎng)站設(shè)計(jì)公司、全網(wǎng)營(yíng)銷推廣、網(wǎng)站導(dǎo)航、軟件開發(fā)
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)