模塊安裝
pip3 install beautifulsoup4
模塊導入
from bs4 import BeautifulSoup
示例html內容
獲取html內容代碼
import requests
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36 115Browser/9.0.0"
}
response = requests.get("https://www.xbiquge6.com/xbqgph.html",headers=headers)
response.encoding = "utf-8"
html = response.text
print(html)
獲取的html內容
小說排行榜列表
-
作品分類作品名稱最新章節作者更新時間狀態
-
[都市言情]我本港島電影人今天有更再來一盤菇涼2019-11-16連載中
-
[玄幻奇幻]艾澤拉斯新秩序第一百三十六章 卡拉贊的收獲想靜靜的頓河2019-11-16連載中
-
[都市言情]超級狂婿第654章:他不夠格我本幸運2019-11-16連載中
-
[都市言情]我在都市修個仙完本感言一劍蕩清風2019-11-16連載中
-
[都市言情]都市超級醫圣第2613章 戰后處理斷橋殘雪2019-11-16連載中
-
[都市言情]祖傳土豪系統第二百零五章 我能試試嗎第九傾城2019-11-16連載中
-
[都市言情]都市紅粉圖鑒第1510章 我,才是坐館龍頭!秋江獨釣2019-11-16連載中
-
[武俠仙俠]勝天傳奇第三百八十章 游歷天宮騎牛者2019-11-16連載中
-
[都市言情]總裁爸比從天降第1748章奈何自己是婆婆一碟茴香豆2019-11-16連載中
-
[玄幻奇幻]太古魔帝第一千三百二十四章 魂帝草根2019-11-16連載中
構建BeautifulSoup對象
常用四種解釋器
解釋器 | 標識 | 特點 |
---|---|---|
Python標準庫 | html.parser | Python內置,執行速度中 |
lxml的HTML解釋器 | lxml | 速度快 |
lxml的XML解釋器 | xml | 唯一支持XML解析 |
html5lib | html5lib | 容錯性最好,以瀏覽器方式解析 |
soup = BeautifulSoup(html, 'html.parser')
還可以解析本地html文件
soup1 = BeautifulSoup(open('index.html'))
.prettify()格式化輸出節點
略
通過 . 獲取節點
title = soup.head.title
print(type(title))
print(title)
結果是
對于名稱唯一的節點,可以省略層級
title = soup.title
print(type(title))
print(title)
結果同樣是
名稱不唯一的節點,直接獲取只會獲取第一個匹配的節點
li = soup.li
print(li)
結果是
find_all根據條件獲取節點
find_all( name , attrs , recursive , text , **kwargs )
name :查找所有名字為 name 的tag,字符串對象會被自動忽略掉;
attrs:根據屬性查詢,使用字典類型;
text :可以搜搜文檔中的字符串內容.與 name 參數的可選值一樣, text 參數接受 字符串 , 正則表達式 , 列表, True ;
recursive:調用tag的 find_all() 方法時,Beautiful Soup會檢索當前tag的所有子孫節點,如果只想搜索tag的直接子節點,可以使用參數 recursive=False ;
limit:find_all() 方法返回全部的搜索結構,如果文檔樹很大那么搜索會很慢.如果我們不需要全部結果,可以使用 limit 參數限制返回結果的數量.效果與SQL中的limit關鍵字類似,當搜索到的結果數量達到 limit 的限制時,就停止搜索返回結果;
class_ :通過 class_ 參數搜索有指定CSS類名的tag,class_ 參數同樣接受不同類型的 過濾器 ,字符串,正則表達式,方法或 True。
根據標簽名字
lis = soup.find_all(nam)
for item in lis:
print(item)
結果是
-
首頁
-
永久書架
-
玄幻奇幻
-
武俠仙俠
-
都市言情
-
歷史軍事
-
科幻靈異
-
網游競技
-
女頻頻道
-
完本小說
-
排行榜單
-
臨時書架
-
作品分類作品名稱最新章節作者更新時間狀態
-
[都市言情]我能舉報萬物第九十六章 巡撫視察【第三更】必火2019-11-16連載中
-
[科幻靈異]女戰神的黑包群第3046章 惡毒女配,在線提刀45二謙2019-11-16連載中
-
[玄幻奇幻]花崗巖之怒第一百五十二章 意外到來的斷劍咱的小刀2019-11-16連載中
-
[網游競技]超神機械師1090 韭菜的自覺齊佩甲2019-11-16連載中
-
[武俠仙俠]無量真途第六百三十二章 突然出現的神智燕十千2019-11-16連載中
-
[科幻靈異]我的細胞監獄第四百五十九章 白霧穿黃衣的阿肥2019-11-16連載中
-
[武俠仙俠]前任無雙第三百章 事急速辦躍千愁2019-11-16連載中
-
[武俠仙俠]元陽道君第四十章 洞開劍扼虛空2019-11-16連載中
-
[歷史軍事]逆成長巨星655:不是辦法的辦法葛洛夫街兄弟2019-11-16連載中
-
[歷史軍事]承包大明第一百九十三章 真會玩南希北慶2019-11-16連載中
根據標簽屬性
屬性和值以字典形式傳入
lis = soup.find_all(attrs={"class":"s2"})
for item in lis:
print(item)
結果是
作品名稱
我能舉報萬物
女戰神的黑包群
花崗巖之怒
超神機械師
無量真途
我的細胞監獄
前任無雙
元陽道君
逆成長巨星
承包大明
限制搜索范圍
find_all 方法會搜索當前標簽的所有子孫節點,如果只想搜索直接子節點,可以使用參數 recursive=False
遍歷獲取子節點
.contents獲取所有子節點
以列表形式返回所有子節點,要注意,列表里面還會摻雜 '/n'
ul = soup.ul
print(ul)
print(ul.contents)
結果是
['/n',
-
首頁
, '/n', -
永久書架
, '/n', -
玄幻奇幻
, '/n', -
武俠仙俠
, '/n', -
都市言情
, '/n', -
歷史軍事
, '/n', -
科幻靈異
, '/n', -
網游競技
, '/n', -
女頻頻道
, '/n', -
完本小說
, '/n', -
排行榜單
, '/n', -
臨時書架
, '/n']
.children獲取所有子節點
返回一個list生成器對象
ul = soup.ul
print(ul.children)
print(list(ul.children))
結果是
['/n',
-
首頁
, '/n', -
永久書架
, '/n', -
玄幻奇幻
, '/n', -
武俠仙俠
, '/n', -
都市言情
, '/n', -
歷史軍事
, '/n', -
科幻靈異
, '/n', -
網游競技
, '/n', -
女頻頻道
, '/n', -
完本小說
, '/n', -
排行榜單
, '/n', -
臨時書架
, '/n']
.descendants遍歷所有子孫節點
ul = soup.ul
for item in ul.descendants:
print(item)
結果是(中間很多'/n'空行我刪掉了)
首頁 首頁
永久書架 永久書架
玄幻奇幻 玄幻奇幻
武俠仙俠 武俠仙俠
都市言情 都市言情
歷史軍事 歷史軍事
科幻靈異 科幻靈異
網游競技 網游競技
女頻頻道 女頻頻道
完本小說 完本小說
排行榜單 排行榜單
臨時書架 臨時書架
獲取其父節點
a = soup.li.a
print(a)
p = a.parent
print(p)
結果是
首頁
提取節點信息
節點名稱
感覺沒什么用
title = soup.title
print(title.name)
結果是
title
節點屬性
a = soup.li.a
print(a)
print(a.attrs) # 獲取所有屬性,返回字典形式
print(a['href'])# 獲取a節點的href屬性值
結果是
首頁
{'href': '/'}
/
節點文本
a = soup.li.a
print(type(a.string)) # 節點內文本的類型
print(a.string) # 獲取節點內的文本內容
print(a.get_text()) # 也是獲取節點內的文本內容
結果是
首頁
注意?。。∪绻濣c內文本是注釋,則用string取出文本時會自動去除注釋標記
注釋的類型:,可以通過類型判斷
遍歷獲取所有子孫節點中的文本
for string in soup.stripped_strings: # 去除多余空白內容
print(repr(string))
想進一步了解編程開發相關知識,與我一同成長進步,請關注我的公眾號“松果倉庫”,共同分享宅&程序員的各類資源,謝謝!??!
審核編輯 黃昊宇
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
JAVA
+關注
關注
19文章
2973瀏覽量
104904 -
人工智能
+關注
關注
1792文章
47497瀏覽量
239211 -
python
+關注
關注
56文章
4801瀏覽量
84860 -
爬蟲
+關注
關注
0文章
82瀏覽量
6949
發布評論請先 登錄
相關推薦
IP地址數據信息和爬蟲攔截的關聯
IP地址數據信息和爬蟲攔截的關聯主要涉及到兩方面的內容,也就是數據信息和爬蟲。IP 地址數據信息的內容豐富,包括所屬地域、所屬網絡運營商、訪問時間序列、訪問頻率等。 從IP地址信息中可以窺見
Python常用函數大全
在 Python 世界里,有一些寶藏函數和模塊,它們可以讓你編程更輕松、代碼更高效。這篇文章將帶你一一認識這些神器,讓你的開發生活瞬間輕松不少!
詳細解讀爬蟲多開代理IP的用途,以及如何配置!
爬蟲多開代理IP是一種在爬蟲開發中常用的技術策略,主要用于提高數據采集效率、避免IP被封禁以及獲取地域特定的數據。
如何實現Python復制文件操作
Python 中有許多“開蓋即食”的模塊(比如 os,subprocess 和 shutil)以支持文件 I/O 操作。在這篇文章中,你將會看到一些用 Python 實現文件復制的特殊方法。下面我們開始學習這九種不同的方法來實現
python訓練出的模型怎么調用
使用pickle模塊 pickle 是Python的一個內置模塊,用于序列化和反序列化Python對象結構。使用 pickle 可以方便地保存和加載模型。 import pickle
用pycharm進行python爬蟲的步驟
以下是使用PyCharm進行Python爬蟲的步驟: 安裝PyCharm和Python 首先,您需要安裝PyCharm和Python。PyCharm是一個流行的
常見的數據采集工具的介紹
Scraping) 網絡爬蟲是一種自動化的程序,用于從互聯網上提取信息。它們可以訪問網頁,解析HTML內容,并從中提取所需的數據。 Scrapy : 一個快速且強大的Python框架,用于抓取網站數據。 Beautiful
如何使用Python生成四位隨機數字
為了實現這些目標,Python 為我們提供了random() 模塊。random() 是一個內置的 Python 模塊,用于生成隨機數。
全球新聞網封鎖OpenAI和谷歌AI爬蟲
分析結果顯示,至2023年底,超半數(57%)的傳統印刷媒體如《紐約時報》等已關閉OpenAI爬蟲,反之電視廣播以及數字原生媒體相應地分別為48%和31%。而對于谷歌人工智能爬蟲,32%的印刷媒體采取相同措施,電視廣播和數字原生媒體的比率分別為19%和17%。
Python智能家居系統代碼介紹
Python智能家居系統是一種基于Python編程語言開發的智能家居控制系統,在現代家庭中得到了越來越廣泛的應用。本文將詳細介紹Python智能家居系統的代碼實現,包括系統的結構與功能模塊
評論