在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

機器學習模型的可解釋性算法匯總

jt_rfid5 ? 來源:機器視覺沙龍 ? 作者:機器視覺沙龍 ? 2023-02-03 11:34 ? 次閱讀

目前很多機器學習模型可以做出非常好的預測,但是它們并不能很好地解釋他們是如何進行預測的,很多數據科學家都很難知曉為什么該算法會得到這樣的預測結果。這是非常致命的,因為如果我們無法知道某個算法是如何進行預測,那么我們將很難將其前一道其它的問題中,很難進行算法的debug。

本文介紹目前常見的幾種可以提高機器學習模型的可解釋性的技術,包括它們的相對優點和缺點。我們將其分為下面幾種:

Partial Dependence Plot (PDP);

Individual Conditional Expectation (ICE)

Permuted Feature Importance

Global Surrogate

Local Surrogate (LIME)

Shapley Value (SHAP)

六大可解釋性技術

01Partial Dependence Plot (PDP)

PDP是十幾年之前發明的,它可以顯示一個或兩個特征對機器學習模型的預測結果的邊際效應。它可以幫助研究人員確定當大量特征調整時,模型預測會發生什么樣的變化。

d2618566-a267-11ed-bfe3-dac502259ad0.png

上面圖中,軸表示特征的值,軸表示預測值。陰影區域中的實線顯示了平均預測如何隨著值的變化而變化。PDP能很直觀地顯示平均邊際效應,因此可能會隱藏異質效應。

例如,一個特征可能與一半數據的預測正相關,與另一半數據負相關。那么PDP圖將只是一條水平線。

02Individual Conditional Expectation (ICE)

ICE和PDP非常相似,但和PDP不同之處在于,PDP繪制的是平均情況,但是ICE會顯示每個實例的情況。ICE可以幫助我們解釋一個特定的特征改變時,模型的預測會怎么變化。

d270b086-a267-11ed-bfe3-dac502259ad0.png

如上圖所示,與PDP不同,ICE曲線可以揭示異質關系。但其最大的問題在于:它不能像PDP那樣容易看到平均效果,所以可以考慮將二者結合起來一起使用。

03Permuted Feature Importance

Permuted Feature Importance的特征重要性是通過特征值打亂后模型預測誤差的變化得到的。換句話說,Permuted Feature Importance有助于定義模型中的特征對最終預測做出貢獻的大小。

d28571d8-a267-11ed-bfe3-dac502259ad0.png

如上圖所示,特征f2在特征的最上面,對模型的誤差影響是最大的,f1在shuffle之后對模型卻幾乎沒什么影響,生息的特征則對于模型是負面的貢獻。

04Global Surrogate

Global Surrogate方法采用不同的方法。它通過訓練一個可解釋的模型來近似黑盒模型的預測。

首先,我們使用經過訓練的黑盒模型對數據集進行預測;

然后我們在該數據集和預測上訓練可解釋的模型。

訓練好的可解釋模型可以近似原始模型,我們需要做的就是解釋該模型。

注:代理模型可以是任何可解釋的模型:線性模型、決策樹、人類定義的規則等。

d293e3a8-a267-11ed-bfe3-dac502259ad0.png

使用可解釋的模型來近似黑盒模型會引入額外的誤差,但額外的誤差可以通過R平方來衡量。

由于代理模型僅根據黑盒模型的預測而不是真實結果進行訓練,因此全局代理模型只能解釋黑盒模型,而不能解釋數據。

05Local Surrogate (LIME)

LIME(Local Interpretable Model-agnostic Explanations)和global surrogate是不同的,因為它不嘗試解釋整個模型。相反,它訓練可解釋的模型來近似單個預測。LIME試圖了解當我們擾亂數據樣本時預測是如何變化的。

上面左邊的圖像被分成可解釋的部分。然后,LIME 通過“關閉”一些可解釋的組件(在這種情況下,使它們變灰)來生成擾動實例的數據集。對于每個擾動實例,可以使用經過訓練的模型來獲取圖像中存在樹蛙的概率,然后在該數據集上學習局部加權線性模型。最后,使用具有最高正向權重的成分來作為解釋。

06Shapley Value (SHAP)

Shapley Value的概念來自博弈論。我們可以通過假設實例的每個特征值是游戲中的“玩家”來解釋預測。每個玩家的貢獻是通過在其余玩家的所有子集中添加和刪除玩家來衡量的。一名球員的Shapley Value是其所有貢獻的加權總和。Shapley 值是可加的,局部準確的。如果將所有特征的Shapley值加起來,再加上基值,即預測平均值,您將得到準確的預測值。這是許多其他方法所沒有的功能。

d2c5c738-a267-11ed-bfe3-dac502259ad0.png

該圖顯示了每個特征的Shapley值,表示將模型結果從基礎值推到最終預測的貢獻。紅色表示正面貢獻,藍色表示負面貢獻。

小結

機器學習模型的可解釋性是機器學習中一個非常活躍而且重要的研究領域。本文中我們介紹了6種常用的用于理解機器學習模型的算法。大家可以依據自己的實踐場景進行使用。

審核編輯:湯梓紅

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 算法
    +關注

    關注

    23

    文章

    4624

    瀏覽量

    93113
  • PDP
    PDP
    +關注

    關注

    0

    文章

    53

    瀏覽量

    36235
  • 模型
    +關注

    關注

    1

    文章

    3279

    瀏覽量

    48974
  • 機器學習
    +關注

    關注

    66

    文章

    8428

    瀏覽量

    132841
  • LIME
    +關注

    關注

    0

    文章

    7

    瀏覽量

    8534

原文標題:【光電智造】機器學習模型的可解釋性算法匯總!

文章出處:【微信號:今日光電,微信公眾號:今日光電】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    機器學習模型可解釋性的結果分析

    模型可解釋性機器學習領域的一個重要分支,隨著 AI 應用范圍的不斷擴大,人們越來越不滿足于模型的黑盒特性,與此同時,金融、自動駕駛等領域
    發表于 09-28 10:17 ?1026次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b><b class='flag-5'>模型</b><b class='flag-5'>可解釋性</b>的結果分析

    什么是“可解釋的”? 可解釋性AI不能解釋什么

    通過建立既可解釋又準確的模型來改良這種錯誤的二分法。關鍵是將神經網絡與決策樹相結合,在使用神經網絡進行低級決策時保留高級的可解釋性
    發表于 05-31 10:51 ?8566次閱讀

    機器學習模型的“可解釋性”的概念及其重要意義

    如果考察某些類型的“事后可解釋性”(post-hoc interpretable),深度神經網絡具有明顯的優勢。深度神經網絡能夠學習豐富的表示,這些表示能夠可視化、用語言表達或用于聚類。如果考慮對可解釋性的需求,似乎線性
    的頭像 發表于 07-24 09:58 ?2w次閱讀

    神經網絡可解釋性研究的重要日益凸顯

    神經網絡的可解釋性,從經驗主義到數學建模
    的頭像 發表于 06-27 10:54 ?5264次閱讀

    Explainable AI旨在提高機器學習模型可解釋性

    Google Cloud AI戰略總監Tracy Frey在 今天的博客中解釋說,Explainable AI旨在提高機器學習模型可解釋性
    的頭像 發表于 03-24 15:14 ?2970次閱讀

    詳談機器學習的決策樹模型

    決策樹模型是白盒模型的一種,其預測結果可以由人來解釋。我們把機器學習模型的這一特性稱為
    的頭像 發表于 07-06 09:49 ?3623次閱讀
    詳談<b class='flag-5'>機器</b><b class='flag-5'>學習</b>的決策樹<b class='flag-5'>模型</b>

    機器學習模型可解釋性的介紹

    模型可解釋性方面的研究,在近兩年的科研會議上成為關注熱點,因為大家不僅僅滿足于模型的效果,更對模型效果的原因產生更多的思考,這...
    的頭像 發表于 12-10 20:19 ?792次閱讀

    一種擁有較好可解釋性的啟發式多分類集成算法

    安全得到重視,傳統融合策略可解釋性差的冋題凸顯。夲文基于心理學中的知識線記憶理論進行建模參考人類決策過程,提出了一種擁有較好可解釋性的啟發式多分類器集成算法,稱為知識線集成
    發表于 03-24 11:41 ?13次下載
    一種擁有較好<b class='flag-5'>可解釋性</b>的啟發式多分類集成<b class='flag-5'>算法</b>

    《計算機研究與發展》—機器學習可解釋性

    伴隨著模型復雜度的增加,機器學習算法可解釋性越差,至今,機器
    發表于 01-25 08:35 ?1178次閱讀
    《計算機研究與發展》—<b class='flag-5'>機器</b><b class='flag-5'>學習</b>的<b class='flag-5'>可解釋性</b>

    關于機器學習模型的六大可解釋性技術

    本文介紹目前常見的幾種可以提高機器學習模型可解釋性的技術。
    的頭像 發表于 02-26 17:20 ?2232次閱讀
    關于<b class='flag-5'>機器</b><b class='flag-5'>學習</b><b class='flag-5'>模型</b>的六大<b class='flag-5'>可解釋性</b>技術

    機器學習模型可解釋性算法詳解

    本文介紹目前常見的幾種可以提高機器學習模型可解釋性的技術,包括它們的相對優點和缺點。
    的頭像 發表于 02-16 16:21 ?4749次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b><b class='flag-5'>模型</b>的<b class='flag-5'>可解釋性</b><b class='flag-5'>算法</b>詳解

    使用RAPIDS加速實現SHAP的模型可解釋性

      模型解釋性 幫助開發人員和其他利益相關者理解模型特征和決策的根本原因,從而使流程更加透明。能夠解釋模型可以幫助數據科學家
    的頭像 發表于 04-21 09:25 ?2541次閱讀

    可解釋機器學習

    可解釋機器學習
    發表于 06-17 14:41 ?1次下載

    可以提高機器學習模型可解釋性技術

    本文介紹目前常見的幾種可以提高機器學習模型可解釋性的技術,包括它們的相對優點和缺點。
    的頭像 發表于 02-08 14:08 ?1289次閱讀

    機器學習算法匯總 機器學習算法分類 機器學習算法模型

    機器學習算法匯總 機器學習算法分類
    的頭像 發表于 08-17 16:11 ?1137次閱讀
    主站蜘蛛池模板: 午夜国产福利| 四虎国产精品成人永久免费影视 | free欧美| 青草网址| 亚洲伊人久久大香线蕉啊| 日韩高清在线日韩大片观看网址| 天天澡天天干| 成 人色 网 站 欧美大片在线观看| 日本黄色一级网站| 天天做人人爱夜夜爽2020| 欧美极品在线视频| 欧美激情五月| 国产毛片精品| 欧美黄色片免费观看| 亚洲午夜视频在线| 高清色黄毛片一级毛片| 免费大片黄在线观看日本| 色婷婷综合网| 天堂资源在线种子资源| 四虎4hu永久在线观看| 欧美性喷潮| 日本特黄a级高清免费大片18 | 日本高清一本视频| 天天操天天操天天干| 亚洲精品九色在线网站| luxu259在线中文字幕| 天天综合天天做| 成年男人午夜片免费观看| 久久啊| 久久亚洲精品国产亚洲老地址| 天天视频观看| 成人看的午夜免费毛片| 天天躁夜夜躁狠狠躁2021a| 视频一区视频二区在线观看| 五月激情在线| 干天天| 欧美性三级| 国产一区国产二区国产三区| 99热最新在线| 亚洲综合色站| 欧美成人伊人十综合色|