在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Python爬蟲之Beautiful Soup模塊

電子設計 ? 來源:電子設計 ? 作者:電子設計 ? 2020-12-10 21:56 ? 次閱讀

模塊安裝

pip3 install beautifulsoup4

模塊導入

from bs4 import BeautifulSoup

示例html內容

獲取html內容代碼

import requests

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36 115Browser/9.0.0"
}
response = requests.get("https://www.xbiquge6.com/xbqgph.html",headers=headers)
response.encoding = "utf-8"
html = response.text
print(html)

獲取的html內容


小說排行榜列表

構建BeautifulSoup對象

常用四種解釋器

解釋器 標識 特點
Python標準庫 html.parser Python內置,執行速度中
lxml的HTML解釋器 lxml 速度快
lxml的XML解釋器 xml 唯一支持XML解析
html5lib html5lib 容錯性最好,以瀏覽器方式解析
soup = BeautifulSoup(html, 'html.parser')

還可以解析本地html文件

soup1 = BeautifulSoup(open('index.html'))

.prettify()格式化輸出節點

通過 . 獲取節點

title = soup.head.title
print(type(title))
print(title)

結果是

對于名稱唯一的節點,可以省略層級

title = soup.title
print(type(title))
print(title)

結果同樣是

名稱不唯一的節點,直接獲取只會獲取第一個匹配的節點

li = soup.li
print(li)

結果是

find_all根據條件獲取節點

find_all( name , attrs , recursive , text , **kwargs )
name :查找所有名字為 name 的tag,字符串對象會被自動忽略掉;
attrs:根據屬性查詢,使用字典類型;
text :可以搜搜文檔中的字符串內容.與 name 參數的可選值一樣, text 參數接受 字符串 , 正則表達式 , 列表, True ;
recursive:調用tag的 find_all() 方法時,Beautiful Soup會檢索當前tag的所有子孫節點,如果只想搜索tag的直接子節點,可以使用參數 recursive=False ;
limit:find_all() 方法返回全部的搜索結構,如果文檔樹很大那么搜索會很慢.如果我們不需要全部結果,可以使用 limit 參數限制返回結果的數量.效果與SQL中的limit關鍵字類似,當搜索到的結果數量達到 limit 的限制時,就停止搜索返回結果;
class_ :通過 class_ 參數搜索有指定CSS類名的tag,class_ 參數同樣接受不同類型的 過濾器 ,字符串,正則表達式,方法或 True。

根據標簽名字

lis = soup.find_all(nam)
for item in lis:
    print(item)

結果是

根據標簽屬性

屬性和值以字典形式傳入

lis = soup.find_all(attrs={"class":"s2"})
for item in lis:
    print(item)

結果是
作品名稱
我能舉報萬物
女戰神的黑包群
花崗巖之怒
超神機械師
無量真途
我的細胞監獄
前任無雙
元陽道君
逆成長巨星
承包大明

限制搜索范圍

find_all 方法會搜索當前標簽的所有子孫節點,如果只想搜索直接子節點,可以使用參數 recursive=False

遍歷獲取子節點

.contents獲取所有子節點

以列表形式返回所有子節點,要注意,列表里面還會摻雜 '/n'

ul = soup.ul
print(ul)
print(ul.contents)

結果是
['/n',

.children獲取所有子節點

返回一個list生成器對象

ul = soup.ul
print(ul.children)
print(list(ul.children))

結果是
['/n', 

.descendants遍歷所有子孫節點

ul = soup.ul
for item in ul.descendants:
    print(item)

結果是(中間很多'/n'空行我刪掉了)
首頁 首頁 永久書架 永久書架 玄幻奇幻 玄幻奇幻 武俠仙俠 武俠仙俠 都市言情 都市言情 歷史軍事 歷史軍事 科幻靈異 科幻靈異 網游競技 網游競技 女頻頻道 女頻頻道 完本小說 完本小說 排行榜單 排行榜單 臨時書架 臨時書架

獲取其父節點

a = soup.li.a
print(a)
p = a.parent
print(p)

結果是
首頁

提取節點信息

節點名稱

感覺沒什么用

title = soup.title
print(title.name)

結果是
title

節點屬性

a = soup.li.a
print(a)
print(a.attrs)    # 獲取所有屬性,返回字典形式
print(a['href'])# 獲取a節點的href屬性值

結果是
首頁
{'href': '/'}
/

節點文本

a = soup.li.a
print(type(a.string)) # 節點內文本的類型
print(a.string) # 獲取節點內的文本內容
print(a.get_text())    # 也是獲取節點內的文本內容
結果是

首頁

注意?。。∪绻濣c內文本是注釋,則用string取出文本時會自動去除注釋標記
注釋的類型:,可以通過類型判斷

遍歷獲取所有子孫節點中的文本

for string in soup.stripped_strings:  # 去除多余空白內容
    print(repr(string))
想進一步了解編程開發相關知識,與我一同成長進步,請關注我的公眾號“松果倉庫”,共同分享宅&程序員的各類資源,謝謝!??!

審核編輯 黃昊宇
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • JAVA
    +關注

    關注

    19

    文章

    2973

    瀏覽量

    104904
  • 人工智能
    +關注

    關注

    1792

    文章

    47497

    瀏覽量

    239211
  • python
    +關注

    關注

    56

    文章

    4801

    瀏覽量

    84860
  • 爬蟲
    +關注

    關注

    0

    文章

    82

    瀏覽量

    6949
收藏 人收藏

    評論

    相關推薦

    IP地址數據信息和爬蟲攔截的關聯

    IP地址數據信息和爬蟲攔截的關聯主要涉及到兩方面的內容,也就是數據信息和爬蟲。IP 地址數據信息的內容豐富,包括所屬地域、所屬網絡運營商、訪問時間序列、訪問頻率等。 從IP地址信息中可以窺見
    的頭像 發表于 12-23 10:13 ?74次閱讀

    Python常用函數大全

    Python 世界里,有一些寶藏函數和模塊,它們可以讓你編程更輕松、代碼更高效。這篇文章將帶你一一認識這些神器,讓你的開發生活瞬間輕松不少!
    的頭像 發表于 10-27 17:20 ?300次閱讀

    全球視野下的海外爬蟲IP:趨勢、機遇與風險

    在全球視野下,海外爬蟲IP的使用呈現出一系列趨勢,同時也伴隨著機遇與風險。
    的頭像 發表于 10-15 07:54 ?234次閱讀

    海外爬蟲IP的合法邊界:合規性探討與實踐

    海外爬蟲IP的合法邊界主要涉及合規性探討與實踐。
    的頭像 發表于 10-12 07:56 ?243次閱讀

    如何利用海外爬蟲IP進行數據抓取

    利用海外爬蟲IP進行數據抓取需要綜合考慮多個方面。
    的頭像 發表于 10-12 07:54 ?228次閱讀

    詳細解讀爬蟲多開代理IP的用途,以及如何配置!

    爬蟲多開代理IP是一種在爬蟲開發中常用的技術策略,主要用于提高數據采集效率、避免IP被封禁以及獲取地域特定的數據。
    的頭像 發表于 09-14 07:55 ?526次閱讀

    如何實現Python復制文件操作

    Python 中有許多“開蓋即食”的模塊(比如 os,subprocess 和 shutil)以支持文件 I/O 操作。在這篇文章中,你將會看到一些用 Python 實現文件復制的特殊方法。下面我們開始學習這九種不同的方法來實現
    的頭像 發表于 07-18 14:53 ?448次閱讀

    網絡爬蟲,Python和數據分析

    電子發燒友網站提供《網絡爬蟲,Python和數據分析.pdf》資料免費下載
    發表于 07-13 09:27 ?2次下載

    python訓練出的模型怎么調用

    使用pickle模塊 pickle 是Python的一個內置模塊,用于序列化和反序列化Python對象結構。使用 pickle 可以方便地保存和加載模型。 import pickle
    的頭像 發表于 07-11 10:15 ?2123次閱讀

    用pycharm進行python爬蟲的步驟

    以下是使用PyCharm進行Python爬蟲的步驟: 安裝PyCharm和Python 首先,您需要安裝PyCharm和Python。PyCharm是一個流行的
    的頭像 發表于 07-11 10:11 ?906次閱讀

    常見的數據采集工具的介紹

    Scraping) 網絡爬蟲是一種自動化的程序,用于從互聯網上提取信息。它們可以訪問網頁,解析HTML內容,并從中提取所需的數據。 Scrapy : 一個快速且強大的Python框架,用于抓取網站數據。 Beautiful
    的頭像 發表于 07-01 14:51 ?913次閱讀

    如何使用Python生成四位隨機數字

    為了實現這些目標,Python 為我們提供了random() 模塊。random() 是一個內置的 Python 模塊,用于生成隨機數。
    的頭像 發表于 04-15 12:47 ?710次閱讀

    全球新聞網封鎖OpenAI和谷歌AI爬蟲

    分析結果顯示,至2023年底,超半數(57%)的傳統印刷媒體如《紐約時報》等已關閉OpenAI爬蟲,反之電視廣播以及數字原生媒體相應地分別為48%和31%。而對于谷歌人工智能爬蟲,32%的印刷媒體采取相同措施,電視廣播和數字原生媒體的比率分別為19%和17%。
    的頭像 發表于 02-27 15:31 ?881次閱讀

    基于Python的地圖繪制教程

    本文將介紹通過Python繪制地形圖的方法,所需第三方Python相關模塊包括 rasterio、geopandas、cartopy 等,可通過 pip 等方式安裝。
    的頭像 發表于 02-26 09:53 ?1272次閱讀
    基于<b class='flag-5'>Python</b>的地圖繪制教程

    Python智能家居系統代碼介紹

    Python智能家居系統是一種基于Python編程語言開發的智能家居控制系統,在現代家庭中得到了越來越廣泛的應用。本文將詳細介紹Python智能家居系統的代碼實現,包括系統的結構與功能模塊
    的頭像 發表于 01-25 09:46 ?1414次閱讀
    主站蜘蛛池模板: 国产精品久久久久久免费播放 | 亚洲电影在线播放| 久久精品国产99精品最新| 久久久久国产一级毛片高清板| 国产2021成人精品| 亚洲aaaa级特黄毛片| ts国产| 国产成人精品亚洲77美色| www.四虎影院在线观看| 五月婷婷综合网| 国产又粗又大又爽又免费| 1024你懂的国产日韩欧美| 中文字幕一区二区三| 老司机精品视频免费| 亚洲色图综合图区| 三级黄色在线观看| 狠狠做深爱婷婷久久一区| 8050午夜一级二级全黄| 日本片巨大的乳456线观看| 操视频网站| 久久亚洲精选| 欧美乱xxxxxxxxx| 久久99热国产这有精品| 午夜想想爱午夜剧场| 嫩草黄色影院| 波多野结衣在线网址| 奇米7777| 在线二区| 五月情婷婷| 久久久久久88色偷偷| 91成人在线播放| 国产无套视频在线观看香蕉| 亚洲乱码卡一卡二卡三永久| 性欧美高清短视频免费| 免费一级欧美在线观看视频片| 99久在线| 国产黄mmd在线观看免费| 欧美区一区| 色91在线| 91在线色| 日本与大黑人xxxx|