在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

機器學習的可解釋性為何如此重要?

nlfO_thejiangme ? 來源:未知 ? 作者:李倩 ? 2018-04-11 15:48 ? 次閱讀

無論構建機器學習的目的是什么,客戶總是希望能知道并理解模型的來龍去脈的。此外作為數據科學家和機器學習工作者,可解釋性對于模型的驗證和改進有著十分積極的意義。本文將從不同的角度闡述模型的可解釋性對于機器學習的重要性,并探討模型解釋的實踐方法。

機器學習的可解釋性為何如此重要?

在傳統統計學中,我們通過數據構建并驗證假設來建立模型。通過構建的模型我們可以得到一系列規則并應用于業務中去。例如市場部門就可以通過構建與競爭者數據相關的模型來決定有效的市場競爭策略和方法。這類方法屬于自頂向下的方法,其中可解釋性是整套方法的解釋,它銜接了規則和所產生的行為策略。很多時候因果關系不那么明確,一個堅實的模型就需要為決策提供可靠的解釋,幫助人們清晰的理解。

而對于自底向上的模式,將商業模型中的一部分委派給機器學習,甚至從機器學習中得到全新的商業想法。自底向上的數據科學一般與手工勞作的自動化過程相關。例如制造業公司可將傳感器放置在設備上收集數據并預測其需要維護的時間,這就避免了運維工程師耗時的周期性檢查和維修,他們可以高效的維護工場設備保持在運行在良好的狀態。模型的可解釋可以幫助驗證模型是否再按期望的狀態運行,同時有利于在向自動化轉變的過程中創造多的信任。

作為一名數據科學家,經常需要對模型進行微調以達到最優的表現。數據科學一般都是在給定x和輸出y的情況下尋找誤差最小的映射模型。雖然訓練優秀的模型是數據科學家的核心能力,但具有更廣闊的視野也十分重要。對數據和模型的解讀對于數據科學處理流程是十分重要的,同時還能保證模型與目標問題的匹配。盡管我們經常會在各種前沿模型的嘗試中迷失自我,但如果能夠解釋模型的發現并指導你的工作這將會使得數據科學的處理變得更加透徹。

對于模型的深度分析是數據的科學的根本

1. 識別并減小偏差

偏差廣泛存在于數據集中,數據科學家需要識別并修正它的影響。很多時候數據集的規模可能很小不足以覆蓋所有的情況,或者在數據獲取過程中沒有考慮潛在的偏差。它的影響往往會在數據處理后護著在模型預測中變得明顯。偏差存在的形式各不相同,需要明確的是,處理偏差的手段并不單一,但在考慮模型的可解釋性的時候必須要考慮到偏差的存在。

2.幫助分析問題的前后聯系

在大多數問題中,我們收集到的數據僅僅是問題的粗略表示,并不能完全反映真實狀態下的復雜性。可解釋模型可以幫助我們理解并計量哪些因素被包含到模型中,并根據模型預測計量問題的前后聯系。

3.改善泛化性

可解釋性越強的模型一般都會具有更好的泛化性。可解釋性并不是模型對于每一個數據點的細節描述,而是結合了堅實的模型和數據以及對于問題的理解,綜合形成對于問題更好更全面的理解。

4.倫理和法律需要

在金融和醫療等行業人們需要審視模型的決策過程,并保證模型的決策不帶有歧視和違法等行為。隨著數據隱私保護的加強,模型的可解釋性變得更加重要。同時在一些如醫療、自動駕駛等關鍵領域,一個錯誤會產生十分巨大的反響,所以模型的可解釋性變得十分重要,讓人們明白系統是如何工作的,決策是如何形成的。

如何解釋你的模型?

在這一領域通常有一個規律,模型的可解釋性隨著復雜度的增加而下降,甚至更快的下降。特征重要性一般是解釋模型的起點。即使對于黑箱般的深度學習模型,依然有一系列技術用于解釋他們如何工作。在文章的最后我們還將討論LIME(Local Interpretable Model-Agnostic Explanations)框架來作為分析框架構建可解釋性。

1.特征重要性

一般線性模型

一般線性模型將特征作為x輸入并與模型的權重相結合,通過函數作用后可以預測一系列廣泛的變量。其常見的應用包括回歸(線性回歸)、分類(邏輯回歸)和泊松過程建模(泊松回歸)。其權重來自于特征訓練后的結果,他們可以為模型提供十分簡練的解釋。

例如構建一個文本分類器的過程中,可以繪制分類的特征圖并驗證它是否過擬合了噪聲。如果最重要的特征與你的直覺不符,這就意味著模型在噪聲上過擬合了,它在新數據上的表現也不會好。

隨機森林和支持向量機

即使對于樹這一類的非線性模型依然可以特征重要性中提取信息。在隨機森林中,特征重要性是驗證初始假設和評價模型學習效果的好方法。而在基于核方法的支持向量機中,可以將特征映射到核空間中進行學習。

從上圖中可以看到模型從數據中學習到了什么,什么是重要的

深度學習

深度學習模型的表現十分優異,但由于缺乏可解釋性廣受詬病。這主要是由于內部的參數共享和復雜的特征抽取與組合。這類模型在一系列機器學習任務上達到了最先進的水平,很多人都在致力于銜接器預測與輸入的關系,期待解釋模型的優異表現。

機器學習可解釋的學術研究火熱

深度學習的不可解釋性是阻礙其發展的障礙,特別是在圖像和文本處理上,很難解釋模型到底學習到了什么。目前這一領域的主要研究方向集中在將輸出或者預測映射回輸入數據上。雖然在線性模型上十分簡單,但在深度學習中依然是懸而未決的問題。目前主要集中在梯度和注意力機制兩方面來解決。

1) 基于梯度的方法中利用方向傳播梯度的概念產生出一幅地圖,用于描述出輸入圖中對于輸入預測重要的部分。

視覺標注任務中在原圖顯示對于結果重要的部分

2) 基于注意力機制的方法主要用于序列數據。除了網絡中歸一化的權重外,注意力權重被訓練用于"輸入門"。注意力權重可以被用于決定輸入部分多少被用于最后的網絡輸出。除了可解釋性,文本中的注意力機制在問答系統中幫助系統更加集中于任務本身。

顯示了文本中對于問題回答重要的部分

2.LIME

LIME是一個更為通用的解釋框架。

為了保持模型的獨立性,LIME修改局域的輸入將特別的測試用例輸入模型并觀察對預測造成的影響,通過一個個特定的樣例來觀察模型的可解釋性。在文本內容分類中,這意味著某些詞被替換后觀察輸出的結果。這就可以看到哪些修改后的結果是更為重要的。從而從側面來解釋模型。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器學習
    +關注

    關注

    66

    文章

    8418

    瀏覽量

    132646
  • 深度學習
    +關注

    關注

    73

    文章

    5503

    瀏覽量

    121170

原文標題:聊一聊機器學習的可解釋性和一個實踐方法

文章出處:【微信號:thejiangmen,微信公眾號:將門創投】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    機器學習模型可解釋性的結果分析

    模型的可解釋性機器學習領域的一個重要分支,隨著 AI 應用范圍的不斷擴大,人們越來越不滿足于模型的黑盒特性,與此同時,金融、自動駕駛等領域的法律法規也對模型的
    發表于 09-28 10:17 ?1004次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>模型<b class='flag-5'>可解釋性</b>的結果分析

    什么是“可解釋的”? 可解釋性AI不能解釋什么

    通過建立既可解釋又準確的模型來改良這種錯誤的二分法。關鍵是將神經網絡與決策樹相結合,在使用神經網絡進行低級決策時保留高級的可解釋性
    發表于 05-31 10:51 ?8526次閱讀

    可解釋機器學習——打開機器學習黑匣子

    【資源下載】《可解釋機器學習》,打開機器學習黑匣子
    發表于 05-20 14:16

    導磁材料的影響為何如此重要

    電機設計的三要素導磁材料的影響為何如此重要如何設計轉子的幾何尺寸
    發表于 02-03 07:29

    斯坦福探索深度神經網絡可解釋性 決策樹是關鍵

    深度學習的熱潮還在不斷涌動,神經網絡再次成為業界人士特別關注的問題,AI 的未來大有可期,而深度學習正在影響我們的日常生活。近日斯坦福大學給我們分享咯一則他對深度神經網絡可解釋性的探索的論文,我們去看看他是如理解的吧!
    發表于 01-10 16:06 ?4389次閱讀
    斯坦福探索深度神經網絡<b class='flag-5'>可解釋性</b> 決策樹是關鍵

    機器學習模型的“可解釋性”的概念及其重要意義

    如果考察某些類型的“事后可解釋性”(post-hoc interpretable),深度神經網絡具有明顯的優勢。深度神經網絡能夠學習豐富的表示,這些表示能夠可視化、用語言表達或用于聚類。如果考慮對可解釋性的需求,似乎線性模型在研
    的頭像 發表于 07-24 09:58 ?2w次閱讀

    神經網絡可解釋性研究的重要性日益凸顯

    神經網絡的可解釋性,從經驗主義到數學建模
    的頭像 發表于 06-27 10:54 ?5246次閱讀

    Explainable AI旨在提高機器學習模型的可解釋性

    Google Cloud AI戰略總監Tracy Frey在 今天的博客中解釋說,Explainable AI旨在提高機器學習模型的可解釋性。她說,這項新服務的工作原理是量化每個數據因
    的頭像 發表于 03-24 15:14 ?2952次閱讀

    機器學習模型可解釋性的介紹

    模型可解釋性方面的研究,在近兩年的科研會議上成為關注熱點,因為大家不僅僅滿足于模型的效果,更對模型效果的原因產生更多的思考,這...
    的頭像 發表于 12-10 20:19 ?775次閱讀

    《計算機研究與發展》—機器學習可解釋性

    機器學習可解釋性 來源:《計算機研究與發展》,作者陳珂銳等 摘 要?近年來,機器學習發展迅速,尤其是深度
    發表于 01-25 08:35 ?1130次閱讀
    《計算機研究與發展》—<b class='flag-5'>機器</b><b class='flag-5'>學習</b>的<b class='flag-5'>可解釋性</b>

    關于機器學習模型的六大可解釋性技術

    本文介紹目前常見的幾種可以提高機器學習模型的可解釋性的技術。
    的頭像 發表于 02-26 17:20 ?2202次閱讀
    關于<b class='flag-5'>機器</b><b class='flag-5'>學習</b>模型的六大<b class='flag-5'>可解釋性</b>技術

    機器學習模型的可解釋性算法詳解

    本文介紹目前常見的幾種可以提高機器學習模型的可解釋性的技術,包括它們的相對優點和缺點。
    的頭像 發表于 02-16 16:21 ?4707次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>模型的<b class='flag-5'>可解釋性</b>算法詳解

    可解釋機器學習

    可解釋機器學習
    發表于 06-17 14:41 ?1次下載

    可以提高機器學習模型的可解釋性技術

    本文介紹目前常見的幾種可以提高機器學習模型的可解釋性的技術,包括它們的相對優點和缺點。
    的頭像 發表于 02-08 14:08 ?1262次閱讀

    文獻綜述:確保人工智能可解釋性和可信度的來源記錄

    本文對數據起源、可解釋AI(XAI)和可信賴AI(TAI)進行系統的文獻綜述,以解釋基本概念,說明數據起源文件可以用來提升基于人工智能系統實現可解釋性。此外,文中還討論了這個領域近期的發展模式,并對未來的研究進行展望。
    的頭像 發表于 04-28 15:55 ?1415次閱讀
    文獻綜述:確保人工智能<b class='flag-5'>可解釋性</b>和可信度的來源記錄
    主站蜘蛛池模板: 永久在线免费| 色视频亚洲| 国产不卡毛片| 狠狠色色综合网站| 欧美三级视频在线| 午夜国产精品免费观看| 男人操女人免费网站| 五月天亚洲| 国产综合精品久久亚洲| 国产综合在线观看| 在线你懂的视频| 黄色生活毛片| 黄色免费网站在线观看| 在线观看视频你懂得| 久久本道综合色狠狠五月| 久久久精品免费热线观看| 优优国产在线视频| 国产色视频网站免费观看| 成人在线一区二区三区| 婷婷色激情| 一本久草| 一区二区三区亚洲视频| 欧美一卡二三卡四卡不卡| 手机看片国产免费永久| 精品精品国产自在久久高清| 久久综合五月婷婷| 福利姬 magnet| 特级一级全黄毛片免费| 小雪被老外黑人撑破了视频| 丝袜美腿视频一区二区三区| 男女爱爱是免费看| 国产午夜精品理论片免费观看| 亚洲成年人网| 亚洲午夜久久久久影院| 日本一区二区三区不卡在线视频| 你懂的在线看| 国产精品福利午夜h视频| 四虎黄色| 奇米影视777狠狠狠888不卡 | www.三级| 复古毛片|