小編給大家分享一下python如何抓取需要掃微信登陸頁(yè)面,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
1.抓取的頁(yè)面需要登陸,以公司網(wǎng)頁(yè)為例,登陸網(wǎng)址https://app-ticketsys.hezongyun.com/index.php ,(該網(wǎng)頁(yè)登陸方式微信掃碼登陸)
2.需要抓取的內(nèi)容如下圖所示:
需要提取
工單對(duì)應(yīng)編號(hào),如TK-2960
工單發(fā)起時(shí)間,如2018-08-17 11:12:13
工單標(biāo)題內(nèi)容,如設(shè)備故障
工單正文內(nèi)容,如最紅框所示
1.按按Ctrl + Shift + I或者鼠標(biāo)右鍵點(diǎn)擊檢查進(jìn)入開(kāi)發(fā)人員工具。
可以看到頁(yè)面顯示如下:
主要關(guān)注點(diǎn)如上圖框住和劃線處
首先點(diǎn)擊網(wǎng)絡(luò),記住以下信息將用于代碼修改處。
Resquest URL:https: //app-ticketsys.hezongyun.com/index.php/ticket/ticket_list/init這個(gè)是需要爬取頁(yè)面的信息請(qǐng)求Menthod:GET餅干:用于需要登陸頁(yè)面User-Agent:Mozilla / 5.0(Windows NT 10.0; Win64; x64)AppleWebKit / 537.36(KHTML,類似Gecko)Chrome / 67.0.3396.62 Safari / 537.36
記住以上信息后粗略了解網(wǎng)頁(yè)樹(shù)形結(jié)構(gòu)用BeatifulSoup中SELEC怎么取出內(nèi)容
示例:的H1M1一段代碼如下:
html =“”“ <html> <head> <title>睡鼠的故事</ title> </ head> <body> <p class =”title“name =”dromouse“> <b>睡鼠的故事</ b > </ p> <p class =“story”>從前有三個(gè)小姐妹;他們的名字是 <a href =“http://example.com/elsie”class =“sister”id =“ link1“> <! - Elsie - > </a>, <a href="http://example.com/lacie" rel="external nofollow" class="sister" id="link2"> Lacie </a>和 <a href =“http://example.com/tillie”class =“sister”id =“l(fā)ink3”> Tillie </a>; 他們住在井底。</ p> <p class =“story”> ... </ p> “”“
如果我們喝湯得到了上面那段HTML的結(jié)構(gòu)提取內(nèi)容方法如下
1.通過(guò)標(biāo)簽名查找soup.select( '標(biāo)題'),如需要取出含有一個(gè)標(biāo)簽的內(nèi)容則soup.select( 'a')的
2.通過(guò)類名查找soup.select( 'CLASS_NAME ')如取出標(biāo)題的內(nèi)容則soup.select('。標(biāo)題')
3.通過(guò)ID名字查找soup.select( '#ID_NAME')如取出ID = LINK2的內(nèi)容則soup.select( '#LINK2')
上述元素名字可以利用左上角箭頭取出,如下圖
# -*- coding:utf-8 -*- import requests import sys import io from bs4 import BeautifulSoup import sys import xlwt import urllib,urllib2 import re def get_text(): #登錄后才能訪問(wèn)的網(wǎng)頁(yè),這個(gè)就是我們?cè)趎etwork里查看到的Request URL url = 'https://app-ticketsys.hezongyun.com/index.php/ticket/ticket_iframe/' #瀏覽器登錄后得到的cookie,這個(gè)就是我們?cè)趎etwork里查看到的Coockie cookie_str = r'ci_ticketsys_session=‘***********************************' #把cookie字符串處理成字典 cookies = {} for line in cookie_str.split(';'): key, value = line.split('=', 1) cookies[key] = value #設(shè)置請(qǐng)求頭 headers = {'User-Agent':'Mozilla/5.0(Windows NT 10.0; Win64;x64)AppleWebKit/537.36 (KHTML, like Gecko)Chrome/67.0.3396.62 Safari/537.36'} #在發(fā)送get請(qǐng)求時(shí)帶上請(qǐng)求頭和cookies resp = requests.get(url, cookies = cookies,headers = headers) soup = BeautifulSoup(resp.text,"html.parser") print soup
上述代碼就能得到登陸網(wǎng)頁(yè)的HTML源碼,這個(gè)源碼呈一個(gè)樹(shù)形結(jié)構(gòu),接下來(lái)針對(duì)需求我們提取需要的內(nèi)容進(jìn)行提取
我們需要工單號(hào),對(duì)應(yīng)時(shí)間,對(duì)應(yīng)標(biāo)題
按箭頭點(diǎn)擊到對(duì)應(yīng)工單大塊,可以查詢到,所有的工單號(hào),工單發(fā)起時(shí)間,工單標(biāo)題均在<ul id =“ticket-list”>
這個(gè)id下面
那么點(diǎn)開(kāi)一個(gè)工單結(jié)構(gòu),例如工單號(hào)ID = “4427” 下面我們需要知道工單號(hào),工單發(fā)起時(shí)間,工單內(nèi)容可以看到
1.工單內(nèi)容在H3標(biāo)簽下面
2.工單編號(hào)在類=“NUM”下面
3.工單發(fā)起時(shí)間在類= “時(shí)間” 下面
for soups in soup.select('#ticket-list'): if len(soups.select('h4'))>0: id_num = soups.select('.num') star_time = soups.select('.time') h4 = soups.select('h4') print id_num,start_time,h4
以上是“python如何抓取需要掃微信登陸頁(yè)面”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對(duì)大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!
當(dāng)前標(biāo)題:python如何抓取需要掃微信登陸頁(yè)面-創(chuàng)新互聯(lián)
本文地址:http://www.chinadenli.net/article30/dhcoso.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供品牌網(wǎng)站設(shè)計(jì)、虛擬主機(jī)、做網(wǎng)站、App設(shè)計(jì)、網(wǎng)站營(yíng)銷、品牌網(wǎng)站建設(shè)
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容