在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

爬蟲工程師是干什么的

工程師人生 ? 來源:網絡整理 ? 作者:工程師吳畏 ? 2018-09-20 11:46 ? 次閱讀

程序員有時候很難和外行人講明白自己的工作是什么,甚至有些時候,跟同行的人講清楚“你是干什么的”也很困難。比如我自己,就對Daivd在搞的語義網一頭霧水。所以我打算寫一篇博客,講一下“爬蟲工程師”的工作內容是什么,需要掌握哪些技能,難點和好玩的地方等等,講到哪里算哪里吧。

一、爬蟲工程師是干嘛的?

1.主要工作內容?

互聯網是由一個一個的超鏈接組成的,從一個網頁的鏈接可以跳到另一個網頁,在新的網頁里,又有很多鏈接。理論上講,從任何一個網頁開始,不斷點開鏈接、鏈接的網頁的鏈接,就可以走遍整個互聯網!這個過程是不是像蜘蛛沿著網一樣爬?這也是“爬蟲”名字的由來。

作為爬蟲工程師,就是要寫出一些能夠沿著網爬的”蜘蛛“程序,保存下來獲得的信息。一般來說,需要爬出來的信息都是結構化的,如果不是結構化的,那么也就沒什么意義了(百分之八十的數據是非結構化的)。爬蟲的規模可達可小,小到可以爬取豆瓣的top 250電影,定時爬取一個星期的天氣預報等。大到可以爬取整個互聯網的網頁(例如google)。下面這些,我認為都可以叫做爬蟲:

爬知乎的作者和回答

爬百度網盤的資源,存到數據庫中(當然,只是保存資源的鏈接和標題),然后制作一個網盤的搜索引

同上,種子網站的搜索引擎也是這樣的

到這里,我們知道爬蟲的任務是獲取數據?,F在比較流行大數據,從互聯網方面講,數據可以分成兩種,一種是用戶產生的(UGC),第二種就是通過一些手段獲得的,通常就是爬蟲。爬蟲又不僅僅局限于從網頁中獲得數據,也可以從app抓包等。簡而言之,就是聚合數據并讓他們結構化。那么,哪些工作需要爬蟲呢?

2.爬蟲能做什么?

典型的數據聚合類的網站都需要爬蟲。比如Google搜索引擎。Google能在幾毫秒之內提供給你包含某些關鍵字的頁面,肯定不是實時給你去找網頁的,而是提前抓好,保存在他們自己的數據庫里(那他們的數據庫得多大呀)。所以種子搜索引擎,網盤搜索引擎,Resillio key引擎等都是用爬蟲實現抓好數據放在數據庫里的。

另外有一些提供信息對比的網站,比如比價類的網站,就是通過爬蟲抓取不同購物網站商品的價格,然后將各個購物網站的價格展示在網站上。購物網站的價格時時都在變,但是比價網站抓到的數據不會刪除,所以可以提供價格走勢,這是購物網站不會提供的信息。

除此之外,個人還可以用爬蟲做一些好玩的事情。比如我們想看大量的圖片,可以寫一個爬蟲批量下載下來,不必一個一個點擊保存,還要忍受網站的廣告了;比如我們想備份自己的資料,例如保存下來我們在豆瓣發布過的所有的廣播,可以使用爬蟲將自己發布的內容全部抓下來,這樣即使一些網站沒有提供備份服務,我們也可以自己豐衣足食。

二、爬蟲工程師需要掌握哪些技能?

我見過這樣的說法:“爬蟲是低級、重復性很多的工作,沒有發展前途”。這是誤解。首先,對于程序員來說基本上不存在重復性的工作,任何重復勞動都可以通過程序自動解決。例如博主之前要抓十幾個相似度很高但是html結構不太一樣的網站,我就寫了一個簡單的代碼生成器,從爬蟲代碼到單元測試代碼都可以自動生成,只要對應html結構稍微修改一下就行了。所以我認為,重復性的勞動在編程方面來說基本上是不存在的,如果你認為自己做的工作是重復性的,說明你比較勤快,不愿意去偷懶。而我還認為,勤快的程序員不是好程序員。下面我根據自己這段時間的工作經歷,講一講爬蟲需要哪些相關的技能。

1.基本的編碼基礎(至少一門編程語言)

這個對于任何編程工作來說都是必須的?;A的數據結構你得會吧。數據名字和值得對應(字典),對一些url進行處理(列表)等等。事實上,掌握的越牢固越好,爬蟲并不是一個簡單的工作,也并不比其他工作對編程語言的要求更高。熟悉你用的編程語言,熟悉相關的框架和庫永遠是百益無害。

我主要用Python,用Java寫爬蟲的也有,理論上講任何語言都可以寫爬蟲的,不過最好選擇一門相關的庫多,開發迅速的語言。用C語言寫肯定是自找苦吃了。

2.任務隊列

當爬蟲任務很大的時候,寫一個程序跑下來是不合適的:

如果中間遇到錯誤停掉,重頭再來?這不科學

我怎么知道程序在哪里失敗了?任務和任務之間不應該相互影響

如果我有兩臺機器怎么分工?

所以我們需要一種任務隊列,它的作用是:講計劃抓取的網頁都放到任務隊列里面去。然后worker從隊列中拿出來一個一個執行,如果一個失敗,記錄一下,然后執行下一個。這樣,worker就可以一個接一個地執行下去。也增加了擴展性,幾億個任務放在隊列里也沒問題,有需要可以增加worker,就像多一雙虧筷子吃飯一樣。

常用的任務隊列有kafka,beanstalkd,celery等。

3.數據庫

這個不用講了,數據保存肯定要會數據庫的。不過有時候一些小數據也可以保存成json或者csv等。我有時想抓一些圖片就直接按照文件夾保存文件。

推薦使用NoSQL的數據庫,比如mongodb,因為爬蟲抓到的數據一般是都字段-值得對應,有些字段有的網站有有的網站沒有,mongo在這方面比較靈活,況且爬蟲爬到的數據關系非常非常弱,很少會用到表與表的關系。

4.HTTP知識

HTTP知識是必備技能。因為要爬的是網頁,所以必須要了解網頁啊。

首先html文檔的解析方法要懂,比如子節點父節點,屬性這些。我們看到的網頁是五彩斑斕的,只不過是被瀏覽器處理了而已,原始的網頁是由很多標簽組成的。處理最好使用html的解析器,如果自己用正則匹配的話坑會很多。我個人非常喜歡xpath,跨語言,表達比價好,但是也有缺點,正則、邏輯判斷有點別扭。

HTTP協議要理解。HTTP協議本身是無狀態的,那么“登錄”是怎么實現的?這就要求去了解一下session和cookies了。GET方法和POST方法的區別(事實上除了字面意思不一樣沒有任何區別)。

瀏覽器要熟練。爬蟲的過程其實是模擬人類去瀏覽器數據的過程。所以瀏覽器是怎么訪問一個網站的,你要學會去觀察,怎么觀察呢?Developer Tools!Chrome的Developer Tools提供了訪問網站的一切信息。從traffic可以看到所有發出去的請求。copy as curl功能可以給你生成和瀏覽器請求完全一致的curl請求!我寫一個爬蟲的一般流程是這樣的,先用瀏覽器訪問,然后copy as curl看看有哪些header,cookies,然后用代碼模擬出來這個請求,最后處理請求的結果保存下來。

5.運維

這個話題要說的有很多,實際工作中運維和開發的時間差不多甚至更多一些。維護已經在工作的爬蟲是一個繁重的工作。隨著工作時間增加,一般我們都會學著讓寫出來的爬蟲更好維護一些。比如爬蟲的日志系統,數據量的統計等。將爬蟲工程師和運維分開也不太合理,因為如果一個爬蟲不工作了,那原因可能是要抓的網頁更新了結構,也有可能出現在系統上,也有可能是當初開發爬蟲的時候沒發現反扒策略,上線之后出問題了,也可能是對方網站發現了你是爬蟲把你封殺了,所以一般來說開發爬蟲要兼顧運維。

所以爬蟲的運維我可以提供下面幾個思路:

首先,從數據增量監控。定向爬蟲(指的是只針對一個網站的爬蟲)比較容易,一段時間之后對一些網站的數據增量會有一個大體的了解。經常看看這些數據的增加趨勢是否是正常就可以了(Grafana)。非定向爬蟲的數據增量不是很穩定,一般看機器的網絡狀況,網站的更新情況等(這方面我的經驗不多)。

然后看爬蟲執行的成功情況。在上面提到了用任務隊列控制爬蟲工作,這樣解耦可以帶來很多好處,其中一個就是可以就是可以對一次爬蟲執行進行日志。可以在每次爬蟲任務執行的時候,將執行的時間、狀態、目標url、異常等放入一個日志系統(比如kibana),然后通過一個可視化的手段可以清晰地看到爬蟲的失敗率。

爬蟲拋出的Exception。幾乎所有的項目都會用到錯誤日志收集(Sentry),這里需要注意的一點是,忽略正常的異常(比如Connection錯誤,鎖沖突等),否則的話你會被這些錯誤淹沒。

三、爬蟲與反爬

這同樣是很深的一個話題,就像攻擊武器與防御武器一樣,雙方總是在不斷升級。常見的反爬措施(我遇到過的)有下面幾種:

1.訪問頻率

很好理解,如果訪問太頻繁網站可能針對你的ip封鎖一段時間,這和防DDoS的原理一樣。對于爬蟲來說,碰到這樣的限制一下任務的頻率就可以了,可以盡量讓爬蟲想人類一樣訪問網頁(比如隨機sleep一段時間,如果每隔3s訪問一次網站很顯然不是正常人的行為)。

2.登錄限制

也比較常見。不過公開信息的網站一般不會有這個限制,這樣讓用戶也麻煩了。其實反爬措施都或多或少的影響真實用戶,反爬越嚴格,誤殺用戶的可能性也越高。對爬蟲來說,登錄同樣可以通過模擬登錄的方式解決,加個cookie就行了(話又說回來,網絡的原理很重要)。

3.通過Header封殺

一般瀏覽器訪問網站會有header,比如Safari或者Chrome等等,還有操作系統信息。如果使用程序訪問并不會有這樣的header。破解也很簡單,訪問的時候加上header就行。

4.JavaScript腳本動態獲取網站數據

有一些網站(尤其是單頁面網站)的內容并不是通過服務器直接返回的,而是服務器只返回一個客戶端JavaScript程序,然后JavaScript獲取內容。更高級的是,JavaScript在本地計算一個token,然后拿這個token來進行AJAX獲取內容。而本地的JavaScript又是經過代碼混淆和加密的,這樣我們做爬蟲的通過看源代碼幾乎不可能模擬出來這個請求(主要是token不可能破解),但是我們可以從另一個角度:headless的瀏覽器,也就是我們直接運行這個客戶端程序,這可以100%地模擬真實用戶!

5.驗證碼

這幾乎是終極武器了,驗證碼是專門用來區分人和計算機的手段。對于反爬方來說,這種方式對真實用戶和搜索引擎(其實可以通過記錄搜索引擎爬蟲的ip來區別對待,可以解決)的危害比較大,相信讀者都有輸入驗證碼的痛苦經歷。但這種方法也并不是無敵的!通過現在很火的機器學習可以輕松的識別大部分的驗證碼!Google的reCAPTCHA是一種非常高級的驗證碼,但是聽過通過模擬瀏覽器也是可以破解的。

6.ip限制

網站可能將識別的ip永久封殺,這種方式需要的人力比較大,而且誤傷用戶的代價也很高。但是破解辦法卻非常簡單。目前代理池幾乎是搞爬蟲的標配了,甚至還有很多高匿代理等好用的東西。所以這基本上只能殺殺小爬蟲。

7.網站內容反爬

有一些網站將網站內容用只有人類可以接收的形式來呈現(其實反爬就是區別對待人類和機器嘛)。比如將內容用圖片的形式顯示。但是近幾年來人類和機器的差別越來越小,圖片可以用OCR準確率非常高地去識別。

反爬總結

爬蟲和反爬是典型的攻防雙方的互相升級。但是我認為,這種升級不像軍事,軍事是無盡頭的,但是爬蟲和反爬是有盡頭的。

爬蟲的盡頭就是瀏覽器,一旦使用瀏覽器,程序完全可以模擬真實用戶發出請求,缺點是就是消耗資源,因為需要新開一個進程,解析DOM,運行客戶端JavaScript代碼。(chrome的node api在github開源僅僅兩天,就拿到8k個star)

反爬的盡頭就是像Google這種超級厲害的驗證碼,畢竟驗證碼的根本目的就是識別人類和機器的。

我正好有一個反爬做的非常好的例子。Google Arts Project項目是一個匯聚世界名畫的藝術長廊,我比較喜歡里面的一些畫,所以想下載一些(當然這是不對的),然后發現這個網站反爬做的相當好(因為版權屬于收藏作品的博物館,所以Google Arts Project肯定不會提供下載),要下載幾乎是不可能的。我有點不服,開始用各種手段試圖下載原圖。嘗試了一番,發現這個網站block掉了鼠標右鍵功能、審查元素發現圖片并不是一個常規的圖片、追蹤網絡包發現原圖竟然不是一次網絡請求拿到的,而是分成了好幾次請求base64編碼的字符流每次請求圖片的一部分,然后在客戶端組裝起來圖片!當然在客戶端的代碼也是經過加密和混淆的!這完全可以作為反爬的教科書了,既沒有誤傷用戶,又讓爬蟲無法下手。

圖片每次只請求部分

四、職業道德

成規模的爬蟲一般都會使用集群,一般的小網站服務器規??赡懿蝗缗老x集群的規模大。所以很多時候我們最好對要爬的網站限制一下頻率。否則這些爬蟲就相當于DoS攻擊集群了!一般的網站都會有robots.txt可以參考。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 工程師
    +關注

    關注

    59

    文章

    1570

    瀏覽量

    68520
  • 互聯網
    +關注

    關注

    54

    文章

    11155

    瀏覽量

    103315
收藏 人收藏

    評論

    相關推薦

    LM318 COMP管腳是什么引腳,干什么用的?

    LM318 COMP 管腳是什么引腳,干什么用的,PSPICEFORTI 里面沒有318的COMP管腳在怎么應用
    發表于 07-31 07:45

    正是拼的年紀|65歲電子工程師上班VLOG #65歲退休 #電子工程師 #搞笑 #上班vlog

    電子工程師
    安泰小課堂
    發布于 :2024年07月25日 11:31:02

    嵌入式軟件工程師和硬件工程師的區別?

    嵌入式軟件工程師和硬件工程師的區別? 嵌入式軟件工程師 嵌入式軟件工程師是軟件開發領域中的一種專業工程師,他們主要負責設計和開發嵌入式軟件,
    發表于 05-16 11:00

    大廠電子工程師常見面試題#電子工程師 #硬件工程師 #電路知識 #面試題

    電子工程師電路
    安泰小課堂
    發布于 :2024年04月30日 17:33:15

    美國云服務器是干什么的

    美國云服務器主要用于提供計算資源、托管網站、應用程序以及存儲數據等。很多用戶想要了解美國云服務器具體是干什么的,rak部落小編為您整理發布美國云服務器是干什么的。 美國云服務器是一種**基于云
    的頭像 發表于 04-10 10:16 ?432次閱讀

    美國云服務器是干什么的

    對于美國服務器是干什么的,相信很多小白用戶不是非常了解,接下來小編就為您整理發布美國云服務器是干什么的相關資訊,希望對您有幫助。
    的頭像 發表于 02-19 09:53 ?445次閱讀

    云服務器是干什么的

     云服務器是干什么的?很多小白用戶會有疑惑,今天小編為您整理云服務器是干什么的相關資料,希望對您了解云服務器是干什么的有幫助。
    的頭像 發表于 02-18 09:58 ?1494次閱讀

    電磁爐工作原理 電磁爐板上有個可調電位器的作用是干什么的?

    電磁爐工作原理 電磁爐板上有個可調電位器的作用是干什么的? 電磁爐是一種利用電磁感應原理來加熱食物的廚房電器。其工作原理是通過電路中的電感線圈產生高頻交變電磁場,使鐵制的鑲嵌在爐板下方的發熱盤產生
    的頭像 發表于 02-05 10:29 ?2400次閱讀

    什么是溫補晶振?溫補晶振是干什么的

    什么是溫補晶振?溫補晶振是干什么的?? 溫補晶振是指對晶體振蕩器進行溫度補償的一種技術。晶體振蕩器是一種電子設備,通過驅動晶體諧振頻率上的機械振動來產生穩定的電信號。它在現代電子設備中廣泛應用,如
    的頭像 發表于 01-23 16:42 ?1124次閱讀

    云服務器是干什么的?服務器的主要功能有哪些?

    云服務器是干什么的,主要功能是什么?相信很多技術人員已經很了解,但是對于其他行業的人群云服務器又有什么用呢?擁有云服務器有什么用處呢,RAKsmart小編今天來為您做詳細的解答。
    的頭像 發表于 01-09 09:48 ?726次閱讀
    主站蜘蛛池模板: 特毛片| 中文字幕va一区二区三区| 黄色18网站| 狠狠色丁香婷婷综合| 天天插天天干天天射| 神马影视午夜| 寡妇影院首页亚洲图片| ww在线观看| 亚洲4区| 亚洲福利二区| 四虎影在线永久免费观看| 国产激烈床戏无遮挡在线观看| www.99色| 天堂8资源8在线| 日处女穴| 黄视频免费在线看| 四虎永久免费网站入口2020| 国产单男| 深爱五月激情| 四虎影视4hu4虎成人| 久久精品亚瑟全部免费观看| 97蜜桃| 黄色录像视频网站| 亚洲专区一| 婷婷综合久久狠狠色99h| 么公的好大好硬好深好爽在线视频| 狠狠的日视频| 成人黄色三级| 天堂影| 午夜不卡在线| 67194最新网址| 中文字幕在线色| 色多多www视频在线观看免费| 激情网五月天| 秋霞麻豆| 欧美视频一区二区三区四区| 色综合社区| 成年毛片| 国产精品久久久久久久久久免费| 美女免费视频一区二区三区| 日本特黄在线观看免费|