在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何使用Python爬蟲抓取手機(jī)APP的數(shù)據(jù)

Wildesbeast ? 來源:今日頭條 ? 作者:有趣的程序媛 ? 2020-02-05 12:09 ? 次閱讀

大多數(shù)APP里面返回的是json格式數(shù)據(jù),或者一堆加密過的數(shù)據(jù) 。這里以超級課程表APP為例,抓取超級課程表里用戶發(fā)的話題

1

抓取APP數(shù)據(jù)包

表單:

私信小編01 領(lǐng)取完整項(xiàng)目代碼!

表單中包括了用戶名和密碼,當(dāng)然都是加密過了的,還有一個設(shè)備信息,直接post過去就是。

另外必須加header,一開始我沒有加header得到的是登錄錯誤,所以要帶上header信息。

2

登錄

登錄代碼:

import urllib2 from cookielib import CookieJar loginUrl = 'http://120.55.151.61/V2/StudentSkip/loginCheckV4.action' headers = { 'Content-Type': 'application/x-www-form-urlencoded; charset=UTF-8', 'User-Agent': 'Dalvik/1.6.0 (Linux; U; Android 4.1.1; M040 Build/JRO03H)', 'Host': '120.55.151.61', 'Connection': 'Keep-Alive', 'Accept-Encoding': 'gzip', 'Content-Length': '207', } loginData = 'phoneBrand=Meizu&platform=1&deviceCode=868033014919494&account=FCF030E1F2F6341C1C93BE5BBC422A3D&phoneVersion=16&password=A55B48BB75C79200379D82A18C5F47D6&channel=MXMarket&phoneModel=M040&versionNumber=7.2.1&' cookieJar = CookieJar() opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookieJar)) req = urllib2.Request(loginUrl, loginData, headers) loginResult = opener.open(req).read() print loginResult

登錄成功 會返回一串賬號信息的json數(shù)據(jù)

和抓包時返回數(shù)據(jù)一樣,證明登錄成功

3

抓取數(shù)據(jù)

用同樣方法得到話題的url和post參數(shù)

做法就和模擬登錄網(wǎng)站一樣。詳見:http://my.oschina.net/jhao104/blog/547311

下見最終代碼,有主頁獲取和下拉加載更新。可以無限加載話題內(nèi)容。

#!/usr/local/bin/python2.7 # -*- coding: utf8 -*- """ 超級課程表話題抓取 """ import urllib2 from cookielib import CookieJar import json ''' 讀Json數(shù)據(jù) ''' def fetch_data(json_data): data = json_data['data'] timestampLong = data['timestampLong'] messageBO = data['messageBOs'] topicList = [] for each in messageBO: topicDict = {} if each.get('content', False): topicDict['content'] = each['content'] topicDict['schoolName'] = each['schoolName'] topicDict['messageId'] = each['messageId'] topicDict['gender'] = each['studentBO']['gender'] topicDict['time'] = each['issueTime'] print each['schoolName'],each['content'] topicList.append(topicDict) return timestampLong, topicList ''' 加載更多 ''' def load(timestamp, headers, url): headers['Content-Length'] = '159' loadData = 'timestamp=%s&phoneBrand=Meizu&platform=1&genderType=-1&topicId=19&phoneVersion=16&selectType=3&channel=MXMarket&phoneModel=M040&versionNumber=7.2.1&' % timestamp req = urllib2.Request(url, loadData, headers) loadResult = opener.open(req).read() loginStatus = json.loads(loadResult).get('status', False) if loginStatus == 1: print 'load successful!' timestamp, topicList = fetch_data(json.loads(loadResult)) load(timestamp, headers, url) else: print 'load fail' print loadResult return False loginUrl = 'http://120.55.151.61/V2/StudentSkip/loginCheckV4.action' topicUrl = 'http://120.55.151.61/V2/Treehole/Message/getMessageByTopicIdV3.action' headers = { 'Content-Type': 'application/x-www-form-urlencoded; charset=UTF-8', 'User-Agent': 'Dalvik/1.6.0 (Linux; U; Android 4.1.1; M040 Build/JRO03H)', 'Host': '120.55.151.61', 'Connection': 'Keep-Alive', 'Accept-Encoding': 'gzip', 'Content-Length': '207', } ''' ---登錄部分--- ''' loginData = 'phoneBrand=Meizu&platform=1&deviceCode=868033014919494&account=FCF030E1F2F6341C1C93BE5BBC422A3D&phoneVersion=16&password=A55B48BB75C79200379D82A18C5F47D6&channel=MXMarket&phoneModel=M040&versionNumber=7.2.1&' cookieJar = CookieJar() opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookieJar)) req = urllib2.Request(loginUrl, loginData, headers) loginResult = opener.open(req).read() loginStatus = json.loads(loginResult).get('data', False) if loginResult: print 'login successful!' else: print 'login fail' print loginResult ''' ---獲取話題--- ''' topicData = 'timestamp=0&phoneBrand=Meizu&platform=1&genderType=-1&topicId=19&phoneVersion=16&selectType=3&channel=MXMarket&phoneModel=M040&versionNumber=7.2.1&' headers['Content-Length'] = '147' topicRequest = urllib2.Request(topicUrl, topicData, headers) topicHtml = opener.open(topicRequest).read() topicJson = json.loads(topicHtml) topicStatus = topicJson.get('status', False) print topicJson if topicStatus == 1: print 'fetch topic success!' timestamp, topicList = fetch_data(topicJson) load(timestamp, headers, topicUrl)

結(jié)果:

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • APP
    APP
    +關(guān)注

    關(guān)注

    33

    文章

    1574

    瀏覽量

    72490
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4797

    瀏覽量

    84690
  • 爬蟲
    +關(guān)注

    關(guān)注

    0

    文章

    82

    瀏覽量

    6881
收藏 人收藏

    評論

    相關(guān)推薦

    IP地址數(shù)據(jù)信息和爬蟲攔截的關(guān)聯(lián)

    IP地址數(shù)據(jù)信息和爬蟲攔截的關(guān)聯(lián)主要涉及到兩方面的內(nèi)容,也就是數(shù)據(jù)信息和爬蟲。IP 地址數(shù)據(jù)信息的內(nèi)容豐富,包括所屬地域、所屬網(wǎng)絡(luò)運(yùn)營商、訪
    的頭像 發(fā)表于 12-23 10:13 ?46次閱讀

    Python庫解析:通過庫實(shí)現(xiàn)代理請求與數(shù)據(jù)抓取

    Python中,有多個庫可以幫助你實(shí)現(xiàn)代理請求和數(shù)據(jù)抓取。這些庫提供了豐富的功能和靈活的API,使得你可以輕松地發(fā)送HTTP請求、處理響應(yīng)、解析HTML/XML/JSON數(shù)據(jù),以及進(jìn)
    的頭像 發(fā)表于 10-24 07:54 ?174次閱讀

    如何利用海外爬蟲IP進(jìn)行數(shù)據(jù)抓取

    利用海外爬蟲IP進(jìn)行數(shù)據(jù)抓取需要綜合考慮多個方面。
    的頭像 發(fā)表于 10-12 07:54 ?199次閱讀

    詳細(xì)解讀爬蟲多開代理IP的用途,以及如何配置!

    爬蟲多開代理IP是一種在爬蟲開發(fā)中常用的技術(shù)策略,主要用于提高數(shù)據(jù)采集效率、避免IP被封禁以及獲取地域特定的數(shù)據(jù)
    的頭像 發(fā)表于 09-14 07:55 ?502次閱讀

    單片機(jī)WiFi模塊怎樣連接手機(jī)APP

    將單片機(jī)WiFi模塊連接到手機(jī)APP通常涉及以下幾個步驟: 選擇單片機(jī)和WiFi模塊 :選擇合適的單片機(jī)(如Arduino, ESP32等)和WiFi模塊(如ESP8266, ESP32等)。 硬件
    的頭像 發(fā)表于 09-10 15:31 ?980次閱讀

    怎么導(dǎo)出python邊緣計算中的APP

    怎么導(dǎo)出python邊緣計算中的APP,想進(jìn)行修改又找不到源碼
    發(fā)表于 07-25 06:13

    使用ESP8266時,需要接收手機(jī)APP發(fā)送的數(shù)據(jù),用什么AT指令?

    在使用ESP8266時,需要接收手機(jī)APP發(fā)送的數(shù)據(jù),不知道用什么AT指令?麻煩告知一下,謝謝了
    發(fā)表于 07-17 07:14

    網(wǎng)絡(luò)爬蟲,Python數(shù)據(jù)分析

    電子發(fā)燒友網(wǎng)站提供《網(wǎng)絡(luò)爬蟲,Python數(shù)據(jù)分析.pdf》資料免費(fèi)下載
    發(fā)表于 07-13 09:27 ?1次下載

    用pycharm進(jìn)行python爬蟲的步驟

    以下是使用PyCharm進(jìn)行Python爬蟲的步驟: 安裝PyCharm和Python 首先,您需要安裝PyCharm和Python。PyCharm是一個流行的
    的頭像 發(fā)表于 07-11 10:11 ?850次閱讀

    常見的數(shù)據(jù)采集工具的介紹

    Scraping) 網(wǎng)絡(luò)爬蟲是一種自動化的程序,用于從互聯(lián)網(wǎng)上提取信息。它們可以訪問網(wǎng)頁,解析HTML內(nèi)容,并從中提取所需的數(shù)據(jù)。 Scrapy : 一個快速且強(qiáng)大的Python框架,用于
    的頭像 發(fā)表于 07-01 14:51 ?811次閱讀

    通過手機(jī)APP來組網(wǎng)成功后,如果Node斷電了,下次上電是否還要用手機(jī)APP重新組網(wǎng)?

    1.通過手機(jī)APP來組網(wǎng)成功后,如果Node斷電了,下次上電是否還要用手機(jī)APP重新組網(wǎng)? 2.手機(jī)AP
    發(fā)表于 06-25 07:38

    ESP32藍(lán)牙發(fā)送的數(shù)據(jù)手機(jī)接收不全怎么解決?

    請教一個問題 原來使用的是V3.5,ESP32作為藍(lán)牙服務(wù)端 ,手機(jī)APP作為藍(lán)牙客戶端,一直沒有問題。 最近更新到了V4.4上,功能一樣,手機(jī)APP向ESP32請求
    發(fā)表于 06-18 06:39

    python解析netflow數(shù)據(jù)到csv的流程詳解

    本文主要講解了linux下通過tcpdump抓取netflow數(shù)據(jù)包,并將其導(dǎo)入到wireshark進(jìn)行解析,然后通過wireshark導(dǎo)出數(shù)據(jù)為json文件,再通過python腳本將
    的頭像 發(fā)表于 05-01 11:18 ?676次閱讀
    <b class='flag-5'>python</b>解析netflow<b class='flag-5'>數(shù)據(jù)</b>到csv的流程詳解

    iot可以使用手機(jī)開發(fā)APP來云端控制嗎?

    iot可以使用手機(jī)開發(fā)APP來云端控制嗎?
    發(fā)表于 03-20 08:00

    如何解決Python爬蟲中文亂碼問題?Python爬蟲中文亂碼的解決方法

    如何解決Python爬蟲中文亂碼問題?Python爬蟲中文亂碼的解決方法 在Python爬蟲過程
    的頭像 發(fā)表于 01-12 15:11 ?2400次閱讀
    主站蜘蛛池模板: 亚洲第一网站| 毛片特黄| 国内精品网站| 日本xxxxxxxxx69| 高清一区二区三区视频| 亚洲狠狠婷婷综合久久久久图片 | 黄a一级| 亚洲成人午夜影院| 超碰v| 在线伊人网| 日本中文在线三级在线播放| 久久久鲁| 久久久精品波多野结衣| 91av成人| 四虎国产精品永久在线看| 激情深爱五月| 黑人边吃奶边扎下面激情视频| 天天射天天干天天色| 国产视频黄| 色妞妞网| 夜夜操夜夜摸| xxx日本69hd| 日韩三级一区| 天天爽夜夜爽视频| www.黄黄黄| 四虎在线成人免费网站| 99久在线| 性xxxxx| 狠狠做深爱婷婷久久一区| 美女丝袜长腿喷水gif动态图| 国产区精品高清在线观看| 亚洲色图在线观看视频| 国产三区视频| 在线观看视频在线观看| 色精品一区二区三区| 午夜精品视频5000| 久久久久激情免费观看| 国产私拍视频| 4480yy私人午夜a级国产| 日本在线观看高清不卡免v | 色屋在线|