在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

什么是機器學習_十張圖帶你解析機器學習的基本概念

Hx ? 作者:工程師陳翠 ? 2018-06-30 05:26 ? 次閱讀

在解釋機器學習的基本概念的時候,我發現自己總是回到有限的幾幅圖中。以下是我認為最有啟發性的條目列表。

什么是機器學習_十張圖帶你解析機器學習的基本概念

1. Test and training error: 為什么低訓練誤差并不總是一件好的事情呢:ESL 圖2.11.以模型復雜度為變量的測試及訓練錯誤函數。

什么是機器學習_十張圖帶你解析機器學習的基本概念

2. Under and overfitting: 低度擬合或者過度擬合的例子。PRML 圖1.4.多項式曲線有各種各樣的命令M,以紅色曲線表示,由綠色曲線適應數據集后生成。

什么是機器學習_十張圖帶你解析機器學習的基本概念

3. Occam’s razor

ITILA 圖28.3.為什么貝葉斯推理可以具體化奧卡姆剃刀原理。這張圖給了為什么復雜模型原來是小概率事件這個問題一個基本的直觀的解釋。水平軸代表了可能的數據集D空間。貝葉斯定理以他們預測的數據出現的程度成比例地反饋模型。這些預測被數據D上歸一化概率分布量化。數據的概率給出了一種模型Hi,P(D|Hi)被稱作支持Hi模型的證據。一個簡單的模型H1僅可以做到一種有限預測,以P(D|H1)展示;一個更加強大的模型H2,舉例來說,可以比模型H1擁有更加自由的參數,可以預測更多種類的數據集。這也表明,無論如何,H2在C1域中對數據集的預測做不到像H1那樣強大。假設相等的先驗概率被分配給這兩種模型,之后數據集落在C1區域,不那么強大的模型H1將會是更加合適的模型。

什么是機器學習_十張圖帶你解析機器學習的基本概念

4. Feature combinations:

(1)為什么集體相關的特征單獨來看時無關緊要,這也是(2)線性方法可能會失敗的原因。從Isabelle Guyon特征提取的幻燈片來看。

什么是機器學習_十張圖帶你解析機器學習的基本概念

5. Irrelevant features:

為什么無關緊要的特征會損害KNN,聚類,以及其它以相似點聚集的方法。左右的圖展示了兩類數據很好地被分離在縱軸上。右圖添加了一條不切題的橫軸,它破壞了分組,并且使得許多點成為相反類的近鄰。

什么是機器學習_十張圖帶你解析機器學習的基本概念

6. Basis functions

非線性的基礎函數是如何使一個低維度的非線性邊界的分類問題,轉變為一個高維度的線性邊界問題。Andrew Moore的支持向量機SVM(Support Vector Machine)教程幻燈片中有:一個單維度的非線性帶有輸入x的分類問題轉化為一個2維的線性可分的z=(x,x^2)問題。

什么是機器學習_十張圖帶你解析機器學習的基本概念

7. Discriminative vs. Generative:

為什么判別式學習比產生式更加簡單:PRML 圖1.27.這兩類方法的分類條件的密度舉例,有一個單一的輸入變量x(左圖),連同相應的后驗概率(右圖)。注意到左側的分類條件密度p(x|C1)的模式,在左圖中以藍色線條表示,對后驗概率沒有影響。右圖中垂直的綠線展示了x中的決策邊界,它給出了最小的誤判率。

什么是機器學習_十張圖帶你解析機器學習的基本概念

8. Loss functions:

學習算法可以被視作優化不同的損失函數:PRML 圖7.5. 應用于支持向量機中的“鉸鏈”錯誤函數圖形,以藍色線條表示,為了邏輯回歸,隨著錯誤函數被因子1/ln(2)重新調整,它通過點(0,1),以紅色線條表示。黑色線條表示誤分,均方誤差以綠色線條表示。

什么是機器學習_十張圖帶你解析機器學習的基本概念

9. Geometry of least squares:

ESL 圖3.2.帶有兩個預測的最小二乘回歸的N維幾何圖形。結果向量y正交投影到被輸入向量x1和x2所跨越的超平面。投影y^代表了最小二乘預測的向量。

什么是機器學習_十張圖帶你解析機器學習的基本概念

10. Sparsity:

為什么Lasso算法(L1正規化或者拉普拉斯先驗)給出了稀疏的解決方案(比如:帶更多0的加權向量):ESL 圖3.11.lasso算法的估算圖像(左)以及嶺回歸算法的估算圖像(右)。展示了錯誤的等值線以及約束函數。分別的,當紅色橢圓是最小二乘誤差函數的等高線時,實心的藍色區域是約束區域|β1| + |β2| ≤ t以及β12 + β22 ≤ t2。

英文原文:

I find myself coming back to the same few pictures when explaining basic machine learning concepts. Below is a list I find most illuminating.

我發現自己在解釋基本的機器學習概念時經常碰到少數相同的圖片。下面列舉了我認為最有啟發性的圖片。

1. Test and training error(測試和訓練錯誤): Why lower training error is not always a good thing: ESL Figure 2.11. Test and training error as a function of model complexity.

什么是機器學習_十張圖帶你解析機器學習的基本概念

2. Under and overfitting(欠擬合和過擬合): PRML Figure 1.4. Plots of polynomials having various orders M, shown as red curves, fitted to the data set generated by the green curve.

什么是機器學習_十張圖帶你解析機器學習的基本概念

3. Occam’s razor(奧卡姆剃刀): ITILA Figure 28.3. Why Bayesian inference embodies Occam’s razor. This figure gives the basic intuition for why complex models can turn out to be less probable. The horizontal axis represents the space of possible data sets D. Bayes’ theorem rewards models in proportion to how much they predicted the data that occurred. These predictions are quantified by a normalized probability distribution on D. This probability of the data given model Hi, P (D | Hi), is called the evidence for Hi. A simple model H1 makes only a limited range of predictions, shown by P(D|H1); a more powerful model H2, that has, for example, more free parameters than H1, is able to predict a greater variety of data sets. This means, however, that H2 does not predict the data sets in region C1 as strongly as H1. Suppose that equal prior probabilities have been assigned to the two models. Then, if the data set falls in region C1, the less powerful model H1 will be the more probable model.

什么是機器學習_十張圖帶你解析機器學習的基本概念

4. Feature combinations(Feature組合): (1) Why collectively relevant features may look individually irrelevant, and also (2) Why linear methods may fail. From Isabelle Guyon’s feature extraction slides.

什么是機器學習_十張圖帶你解析機器學習的基本概念

5. Irrelevant features(不相關特征): Why irrelevant features hurt kNN, clustering, and other similarity based methods. The figure on the left shows two classes well separated on the vertical axis. The figure on the right adds an irrelevant horizontal axis which destroys the grouping and makes many points nearest neighbors of the opposite class.

6. Basis functions(基函數): How non-linear basis functions turn a low dimensional classification problem without a linear boundary into a high dimensional problem with a linear boundary. From SVM tutorial slides by Andrew Moore: a one dimensional non-linear classification problem with input x is turned into a 2-D problem z=(x, x^2) that is linearly separable.

什么是機器學習_十張圖帶你解析機器學習的基本概念

7. Discriminative vs. Generative(判別與生成): Why discriminative learning may be easier than generative: PRML Figure 1.27. Example of the class-conditional densities for two classes having a single input variable x (left plot) together with the corresponding posterior probabilities (right plot)。 Note that the left-hand mode of the class-conditional density p(x|C1), shown in blue on the left plot, has no effect on the posterior probabilities. The vertical green line in the right plot shows the decision boundary in x that gives the minimum misclassification rate.

什么是機器學習_十張圖帶你解析機器學習的基本概念

8. Loss functions(損失函數): Learning algorithms can be viewed as optimizing different loss functions: PRML Figure 7.5. Plot of the ‘hinge’ error function used in support vector machines, shown in blue, along with the error function for logistic regression, rescaled by a factor of 1/ln(2) so that it passes through the point (0, 1), shown in red. Also shown are the misclassification error in black and the squared error in green.

什么是機器學習_十張圖帶你解析機器學習的基本概念

9. Geometry of least squares(最小二乘的幾何圖形): ESL Figure 3.2. The N-dimensional geometry of least squares regression with two predictors. The outcome vector y is orthogonally projected onto the hyperplane spanned by the input vectors x1 and x2. The projection y? represents the vector of the least squares predictions.

什么是機器學習_十張圖帶你解析機器學習的基本概念

10. Sparsity(稀疏性): Why Lasso (L1 regularization or Laplacian prior) gives sparse solutions (i.e. weight vectors with more zeros): ESL Figure 3.11. Estimation picture for the lasso (left) and ridge regression (right)。 Shown are contours of the error and constraint functions. The solid blue areas are the constraint regions |β1| + |β2| ≤ t and β12 + β22 ≤ t2, respectively, while the red ellipses are the contours of the least squares error function.

什么是機器學習_十張圖帶你解析機器學習的基本概念

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器學習
    +關注

    關注

    66

    文章

    8419

    瀏覽量

    132675
收藏 人收藏

    評論

    相關推薦

    探討機器學習與深度學習基本概念與運算過程

    人工智慧隸屬于大範疇,包含了機器學習(Machine Learning) 與深度學習(Deep Learning)。如下圖所示,我們最興趣的深度學習則是規範于
    的頭像 發表于 12-18 15:45 ?4312次閱讀
    探討<b class='flag-5'>機器</b><b class='flag-5'>學習</b>與深度<b class='flag-5'>學習</b><b class='flag-5'>基本概念</b>與運算過程

    機器學習實踐指南——案例應用解析

    機器學習實踐指南——案例應用解析
    發表于 04-13 16:40

    人工智能基本概念機器學習算法

    目錄人工智能基本概念機器學習算法1. 決策樹2. KNN3. KMEANS4. SVM5. 線性回歸深度學習算法1. BP2. GANs3. CNN4. LSTM應用人工智能
    發表于 09-06 08:21

    什么是機器學習? 機器學習基礎入門

    本文旨在為硬件和嵌入式工程師提供機器學習(ML)的背景,它是什么,它是如何工作的,它為什么重要,以及 TinyML 是如何適應的機器學習是一個始終存在并經常被誤解的技術
    發表于 06-21 11:06

    詳細闡述機器學習基本概念

    《《機器學習導論》第1章緒論,本章詳細地討論一些應用領域的例子,以進一步深入了解機器學習的類型和用途。本節為大家介紹什么是機器
    的頭像 發表于 07-07 09:05 ?4983次閱讀

    機器學習是什么?10幅帶你詳細的了解機器學習

    本文的幾幅是我認為在解釋機器學習基本概念時最有啟發性的條目列表。
    的頭像 發表于 09-09 09:03 ?5012次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>是什么?10幅<b class='flag-5'>圖</b><b class='flag-5'>帶你</b>詳細的了解<b class='flag-5'>機器</b><b class='flag-5'>學習</b>

    機器學習教程之機器學習概念的深度解析

    時無時無刻不伴隨,相關而不是因果的概念將是支撐機器學習能夠工作的核心概念。你會顛覆對你以前所有程序中建立的因果無
    的頭像 發表于 12-08 11:51 ?3832次閱讀

    機器學習算法基本概念及選用指南

    本文對機器學習的一些基本概念給出了簡要的介紹,并對不同任務中使用不同類型的機器學習算法給出一點建議。
    的頭像 發表于 01-15 15:55 ?2702次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>算法<b class='flag-5'>基本概念</b>及選用指南

    2020年機器學習的發展趨勢

    本文寫作目的并非介紹機器學習基本概念,如圖神經網絡(Graph Neural Network,GNN),而是揭示我們可以在頂級學術會議上看到的前沿研究。首先,我把在
    的頭像 發表于 08-31 11:08 ?2719次閱讀

    常用機器學習算法的基本概念和特點

    。因此對于數據科學家來說,理解算法顯得格外重要,理解不同算法的思想可以幫助數據科學家更從容地面對不同的應用場景。 本文列出了常用的機器學習算法的基本概念、主要特點和適用場景,希望可以在大家選擇合適的
    的頭像 發表于 01-17 15:43 ?3573次閱讀

    深度學習基本概念

    深度學習基本概念? 深度學習是人工智能(AI)領域的一個重要分支,它模仿人類神經系統的工作方式,使用大量數據訓練神經網絡,從而實現自動化的模式識別和決策。在科技發展的今天,深度學習已經
    的頭像 發表于 08-17 16:02 ?2026次閱讀

    機器學習算法入門 機器學習算法介紹 機器學習算法對比

    機器學習算法入門 機器學習算法介紹 機器學習算法對比 機器
    的頭像 發表于 08-17 16:27 ?957次閱讀

    機器學習theta是什么?機器學習tpe是什么?

    機器學習theta是什么?機器學習tpe是什么? 機器學習是近年來蓬勃發展的一個領域,其相關技術
    的頭像 發表于 08-17 16:30 ?1968次閱讀

    機器學習入門:基本概念介紹

    機器學習(GraphMachineLearning,簡稱GraphML)是機器學習的一個分支,專注于利用圖形結構的數據。在圖形結構中,數據
    的頭像 發表于 05-16 08:27 ?512次閱讀
    <b class='flag-5'>圖</b><b class='flag-5'>機器</b><b class='flag-5'>學習</b>入門:<b class='flag-5'>基本概念</b>介紹

    自然語言處理與機器學習的關系 自然語言處理的基本概念及步驟

    Learning,簡稱ML)是人工智能的一個核心領域,它使計算機能夠從數據中學習并做出預測或決策。自然語言處理與機器學習之間有著密切的關系,因為機器
    的頭像 發表于 12-05 15:21 ?490次閱讀
    主站蜘蛛池模板: seba51久久精品| 天天看天天干天天操| 久久久免费精品视频| 欧美精品一区在线看| 老司机亚洲精品影院在线| tube69欧美最新片| 中文字幕va一区二区三区| 黑色丝袜美女被网站| 377p亚洲欧洲日本大胆色噜噜| 全国最大色成免费网站| 欧美色p| 久久青草免费免费91线频观看| 激五月| 波多野结衣在线一区| 永久影视| 欧美午夜一区| 高清成年美女xx免费网站黄| 午夜精品视频在线观看| 天天操天天玩| 一本一本大道香蕉久在线精品| 精品卡1卡2卡三卡免费视频| 韩国三级在线视频| 噜噜噜 综合 亚洲| 欧美在线视频一区二区三区| 久久综合色婷婷| 日本wwwwww| 日韩一级免费视频| 欧美三级不卡在线观线看高清| 精品视频一区二区三区四区五区| 成年人一级片| 欧美午夜性春猛交bbb| 欧美高清xx| 最新人妖shemaletube人妖 | 狠狠色依依成人婷婷九月| 成年人黄色免费网站| 日日拍夜夜嗷嗷叫狠狠| 色网站观看| 在线视频人人视频www| 久久99热精品这里久久精品| 五色网| 久久黄色视屏|