在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

什么是決策樹?決策樹算法思考總結(jié)

lviY_AI_shequ ? 來源:lq ? 2019-02-04 09:45 ? 次閱讀

一、什么是決策樹

決策樹是一類常見的機(jī)器學(xué)習(xí)方法,通過歷史數(shù)據(jù)得到的樹結(jié)構(gòu)模型對(duì)新數(shù)據(jù)進(jìn)行分類決策。

決策樹是一種基于實(shí)例的歸納學(xué)習(xí)方法,它能從給定的無序的訓(xùn)練樣本中,提煉出樹形的分類模型。

樹中的每個(gè)非葉子節(jié)點(diǎn)記錄了使用哪個(gè)特征來進(jìn)行類別的判斷,每個(gè)葉子節(jié)點(diǎn)則代表了最后判斷的類別。根節(jié)點(diǎn)到每個(gè)葉子節(jié)點(diǎn)均形成一條分類的路徑規(guī)則。

每次判斷都是對(duì)某個(gè)屬性的測試,每次判斷都會(huì)縮小考慮的范圍。

一棵決策樹包含一個(gè)根節(jié)點(diǎn)、若干個(gè)內(nèi)部結(jié)點(diǎn)和若干個(gè)葉節(jié)點(diǎn);葉節(jié)點(diǎn)對(duì)應(yīng)于決策結(jié)果,其他每個(gè)節(jié)點(diǎn)則對(duì)應(yīng)于一個(gè)屬性測試;每個(gè)節(jié)點(diǎn)包含的樣本集合根據(jù)屬性測試的結(jié)果被劃分到子節(jié)點(diǎn);

根節(jié)點(diǎn)包含樣本全集。從根節(jié)點(diǎn)到每個(gè)葉節(jié)點(diǎn)的路徑對(duì)應(yīng)了一個(gè)判斷測試序列。

決策樹的生成是一個(gè)遞歸的過程,有三種情形不會(huì)再分類:

當(dāng)前節(jié)點(diǎn)包含的樣本全屬于同一類別

當(dāng)前屬性集為空

當(dāng)前節(jié)點(diǎn)的樣本集合為空

對(duì)于第二種情形,其類別設(shè)定為結(jié)點(diǎn)所含樣本最多的類別。對(duì)于第三種情形,將其類別設(shè)定為其父節(jié)點(diǎn)所含樣本最多的類別

二、常見決策樹分類算法

1、CLS算法:是最原始的決策樹分類算法,基本流程是,從一棵空數(shù)出發(fā),不斷的從決策表選取屬性加入數(shù)的生長過程中,直到?jīng)Q策樹可以滿足分類要求為止。CLS算法存在的主要問題是在新增屬性選取時(shí)有很大的隨機(jī)性。

2、ID3算法:對(duì)CLS算法的最大改進(jìn)是摒棄了屬性選擇的隨機(jī)性,利用信息熵的下降速度作為屬性選擇的度量。ID3是一種基于信息熵的決策樹分類學(xué)習(xí)算法,以信息增益和信息熵,作為對(duì)象分類的衡量標(biāo)準(zhǔn)。

ID3算法結(jié)構(gòu)簡單、學(xué)習(xí)能力強(qiáng)、分類速度快適合大規(guī)模數(shù)據(jù)分類。但同時(shí)由于信息增益的不穩(wěn)定性,容易傾向于眾數(shù)屬性導(dǎo)致過度擬合,算法抗干擾能力差。

ID3算法缺點(diǎn):傾向于選擇那些屬性取值比較多的屬性,在實(shí)際的應(yīng)用中往往取值比較多的屬性對(duì)分類沒有太大價(jià)值、不能對(duì)連續(xù)屬性進(jìn)行處理、對(duì)噪聲數(shù)據(jù)比較敏感、需計(jì)算每一個(gè)屬性的信息增益值、計(jì)算代價(jià)較高。

3、C4.5算法:基于ID3算法的改進(jìn),主要包括:使用信息增益率替換了信息增益下降度作為屬性選擇的標(biāo)準(zhǔn);在決策樹構(gòu)造的同時(shí)進(jìn)行剪枝操作;避免了樹的過度擬合情況;可以對(duì)不完整屬性和連續(xù)型數(shù)據(jù)進(jìn)行處理,提升了算法的普適性。

三、決策樹特征選擇準(zhǔn)則

1 信息增益

“信息熵”是度量樣本集合純度最常用的一種指標(biāo)。假定當(dāng)前樣本集合D中第K類樣本所占的比例為PK,則D的信息熵定義為

值越小,則D的純度越高。

信息增益越大,則意味著使用屬性a來進(jìn)行劃分所獲得的“純度提升”越大。

ID3決策樹學(xué)習(xí)算法就是以信息增益為準(zhǔn)則來選擇劃分屬性的。

2 信息增益率

實(shí)際上信息增益準(zhǔn)則對(duì)可取值數(shù)目較多的屬性有所偏好,為了減少這種偏好可能帶來的不利影響。使用信息增益率來選擇最優(yōu)劃分屬性。

C4.5算法常使用信息增益率來選擇最優(yōu)屬性劃分

3 基尼指數(shù)

CART決策樹使用“基尼指數(shù)”來選擇劃分屬性,

數(shù)據(jù)集D的純度可用基尼值來度量:

Gini(D)反映了從數(shù)據(jù)集D中隨機(jī)抽取兩個(gè)樣本,其類別標(biāo)記不一致的概率。故其值越小越好。數(shù)據(jù)集D的純度越高。

屬性a的基尼指數(shù)定義為

于是,我們?cè)诤蜻x屬性集合A中,選擇哪個(gè)使得劃分后基尼指數(shù)最小的屬性作為最優(yōu)劃分屬性。

4 剪枝處理

剪枝是決策樹學(xué)習(xí)算法對(duì)付“過擬合”的主要手段。剪枝的基本策略有“預(yù)剪枝”和“后剪枝”。

預(yù)剪枝是指在決策樹生成過程中,對(duì)每個(gè)結(jié)點(diǎn)在劃分前進(jìn)行估計(jì),若當(dāng)前節(jié)點(diǎn)的劃分不能帶來決策樹泛化能力提升,則停止劃分并將當(dāng)前節(jié)點(diǎn)標(biāo)記為葉節(jié)點(diǎn)。

后剪枝則是先從訓(xùn)練集生成一顆完整的決策樹,然后自底向上地對(duì)非葉節(jié)點(diǎn)進(jìn)行考察,若將該節(jié)點(diǎn)對(duì)應(yīng)的子樹替換為葉節(jié)點(diǎn)能帶來決策樹泛化能力提升,則將該節(jié)點(diǎn)替換為葉節(jié)點(diǎn)。

5 連續(xù)與缺失值

5.1 連續(xù)值處理

將該節(jié)點(diǎn)上的所有樣本按照屬性的取值有小到大排序,在兩個(gè)值之間去平均值,依次將所有平均值作為分割點(diǎn),分別計(jì)算他們的信息增益率,將值最大的那個(gè)作為最優(yōu)分割點(diǎn)。

5.2 缺失值的處理

處理過程如下

四、sklearn參數(shù)

1criterion:gini或者entropy,前者是基尼系數(shù),后者是信息熵。兩種算法差異不大對(duì)準(zhǔn)確率無影響,信息墑運(yùn)算效率低一點(diǎn),

2 因?yàn)樗袑?duì)數(shù)運(yùn)算.一般說使用默認(rèn)的基尼系數(shù)”gini”就可以了,即CART算法。除非你更喜歡類似ID3,C4.5的最優(yōu)特征選擇方法。

3 4splitter:bestorrandom前者是在所有特征中找最好的切分點(diǎn)后者是在部分特征中, 5 默認(rèn)的”best”適合樣本量不大的時(shí)候,而如果樣本數(shù)據(jù)量非常大,此時(shí)決策樹構(gòu)建推薦”random”。 6max_features:None(所有),log2,sqrt,N特征小于50的時(shí)候一般使用所有的 7 8max_depth:intorNone,optional(default=None)一般來說,數(shù)據(jù)少或者特征少的時(shí)候可以不管這個(gè)值。 9如果模型樣本量多,特征也多的情況下,推薦限制這個(gè)最大深度,具體的取值取決于數(shù)據(jù)的分布。10常用的可以取值10-100之間。常用來解決過擬合1112min_samples_split:如果某節(jié)點(diǎn)的樣本數(shù)少于min_samples_split,則不會(huì)繼續(xù)再嘗試選擇最優(yōu)特征來進(jìn)行劃分,13如果樣本量不大,不需要管這個(gè)值。如果樣本量數(shù)量級(jí)非常大,則推薦增大這個(gè)值。14min_samples_leaf:這個(gè)值限制了葉子節(jié)點(diǎn)最少的樣本數(shù),如果某葉子節(jié)點(diǎn)數(shù)目小于樣本數(shù),則會(huì)和兄弟節(jié)點(diǎn)一起被剪枝,15如果樣本量不大,不需要管這個(gè)值,大些如10W可是嘗試下516min_weight_fraction_leaf:這個(gè)值限制了葉子節(jié)點(diǎn)所有樣本權(quán)重和的最小值,如果小于這個(gè)值,則會(huì)和兄弟節(jié)點(diǎn)一起被剪枝默認(rèn)是0,就是不考慮權(quán)重問題。17一般來說,如果我們有較多樣本有缺失值,或者分類樹樣本的分布類別偏差很大,就會(huì)引入樣本權(quán)重,這時(shí)我們就要注意這個(gè)值了。1819max_leaf_nodes:通過限制最大葉子節(jié)點(diǎn)數(shù),可以防止過擬合,默認(rèn)是"None”,即不限制最大的葉子節(jié)點(diǎn)數(shù)。如果加了限制,算法會(huì)建立在最大葉子節(jié)點(diǎn)數(shù)內(nèi)最優(yōu)的決策樹。20如果特征不多,可以不考慮這個(gè)值,但是如果特征分成多的話,可以加以限制具體的值可以通過交叉驗(yàn)證得到。21class_weight:指定樣本各類別的的權(quán)重,主要是為了防止訓(xùn)練集某些類別的樣本過多導(dǎo)致訓(xùn)練的決策樹過于偏向這些類別。這里可以自己指定各個(gè)樣本的權(quán)重,22如果使用“balanced”,則算法會(huì)自己計(jì)算權(quán)重,樣本量少的類別所對(duì)應(yīng)的樣本權(quán)重會(huì)高。23min_impurity_split:這個(gè)值限制了決策樹的增長,如果某節(jié)點(diǎn)的不純度(基尼系數(shù),信息增益,均方差,絕對(duì)差)小于這個(gè)閾值則該節(jié)點(diǎn)不再生成子節(jié)點(diǎn)。24即為葉子節(jié)點(diǎn)。25

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4612

    瀏覽量

    92894
  • 決策樹
    +關(guān)注

    關(guān)注

    3

    文章

    96

    瀏覽量

    13551
  • ID3
    ID3
    +關(guān)注

    關(guān)注

    0

    文章

    5

    瀏覽量

    3637

原文標(biāo)題:決策樹算法思考總結(jié)

文章出處:【微信號(hào):AI_shequ,微信公眾號(hào):人工智能愛好者社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    關(guān)于決策樹,這些知識(shí)點(diǎn)不可錯(cuò)過

    `隨著科學(xué)技術(shù)的發(fā)展,AI愛好者越來越多,除了一些精通AI的大神,還有很多的技術(shù)小白也對(duì)這方面感興趣,他們想學(xué)習(xí)一些機(jī)器學(xué)習(xí)的入門知識(shí)。今天,訊飛開放平臺(tái)就帶來機(jī)器學(xué)習(xí)中的一個(gè)重要算法——決策樹。在
    發(fā)表于 05-23 09:38

    分類與回歸方法之決策樹

    統(tǒng)計(jì)學(xué)習(xí)方法決策樹
    發(fā)表于 11-05 13:40

    機(jī)器學(xué)習(xí)的決策樹介紹

    機(jī)器學(xué)習(xí)——決策樹算法分析
    發(fā)表于 04-02 11:48

    ML之決策樹與隨機(jī)森林

    ML--決策樹與隨機(jī)森林
    發(fā)表于 07-08 12:31

    決策樹的生成資料

    在本文中,我們將討論一種監(jiān)督式學(xué)習(xí)算法。最新一代意法半導(dǎo)體 MEMS 傳感器內(nèi)置一個(gè)基于決策樹分類器的機(jī)器學(xué)習(xí)核心(MLC)。這些產(chǎn)品很容易通過后綴中的 X 來識(shí)別(例如,LSM6DSOX)。這種
    發(fā)表于 09-08 06:50

    一個(gè)基于粗集的決策樹規(guī)則提取算法

    一個(gè)基于粗集的決策樹規(guī)則提取算法:摘要:決策樹是數(shù)據(jù)挖掘任務(wù)中分類的常用方法。在構(gòu)造決策樹的過程中,分離屬性的選擇標(biāo)準(zhǔn)直接影響到分類的效果,傳統(tǒng)的
    發(fā)表于 10-10 15:13 ?12次下載

    改進(jìn)決策樹算法的應(yīng)用研究

    該方法利用決策樹算法構(gòu)造決策樹,通過對(duì)分類結(jié)果中主客觀屬性進(jìn)行標(biāo)記并邏輯運(yùn)算,最終得到較客觀的決策信息,并進(jìn)行實(shí)驗(yàn)驗(yàn)證。
    發(fā)表于 02-07 11:38 ?27次下載
    改進(jìn)<b class='flag-5'>決策樹</b><b class='flag-5'>算法</b>的應(yīng)用研究

    決策樹的介紹

    關(guān)于決策樹的介紹,是一些很基礎(chǔ)的介紹,不過是英文介紹。
    發(fā)表于 09-18 14:55 ?0次下載

    決策樹的構(gòu)建設(shè)計(jì)并用Graphviz實(shí)現(xiàn)決策樹的可視化

    種涉及到的算法進(jìn)行總結(jié)并附上自己相關(guān)的實(shí)現(xiàn)代碼。所有算法代碼以及用于相應(yīng)模型的訓(xùn)練的數(shù)據(jù)都會(huì)放到GitHub上。 本文中我將一步步通過MLiA的隱形眼鏡處方數(shù)集構(gòu)建決策樹并使用Grap
    發(fā)表于 11-15 13:10 ?1.5w次閱讀
    <b class='flag-5'>決策樹</b>的構(gòu)建設(shè)計(jì)并用Graphviz實(shí)現(xiàn)<b class='flag-5'>決策樹</b>的可視化

    決策樹的原理和決策樹構(gòu)建的準(zhǔn)備工作,機(jī)器學(xué)習(xí)決策樹的原理

    希望通過所給的訓(xùn)練數(shù)據(jù)學(xué)習(xí)一個(gè)貸款申請(qǐng)的決策樹,用于對(duì)未來的貸款申請(qǐng)進(jìn)行分類,即當(dāng)新的客戶提出貸款申請(qǐng)時(shí),根據(jù)申請(qǐng)人的特征利用決策樹決定是否批準(zhǔn)貸款申請(qǐng)。
    的頭像 發(fā)表于 10-08 14:26 ?6012次閱讀

    決策樹的構(gòu)成要素及算法

    決策樹是一種解決分類問題的算法決策樹算法采用樹形結(jié)構(gòu),使用層層推理來實(shí)現(xiàn)最終的分類。
    發(fā)表于 08-27 09:52 ?4371次閱讀

    決策樹的基本概念/學(xué)習(xí)步驟/算法/優(yōu)缺點(diǎn)

    本文將介紹決策樹的基本概念、決策樹學(xué)習(xí)的3個(gè)步驟、3種典型的決策樹算法、決策樹的10個(gè)優(yōu)缺點(diǎn)。
    發(fā)表于 01-27 10:03 ?2649次閱讀
    <b class='flag-5'>決策樹</b>的基本概念/學(xué)習(xí)步驟/<b class='flag-5'>算法</b>/優(yōu)缺點(diǎn)

    什么是決策樹模型,決策樹模型的繪制方法

    決策樹是一種解決分類問題的算法,本文將介紹什么是決策樹模型,常見的用途,以及如何使用“億圖圖示”軟件繪制決策樹模型。
    發(fā)表于 02-18 10:12 ?1.3w次閱讀
    什么是<b class='flag-5'>決策樹</b>模型,<b class='flag-5'>決策樹</b>模型的繪制方法

    決策樹的結(jié)構(gòu)/優(yōu)缺點(diǎn)/生成

    決策樹(DecisionTree)是機(jī)器學(xué)習(xí)中一種常見的算法,它的思想非常樸素,就像我們平時(shí)利用選擇做決策的過程。決策樹是一種基本的分類與回歸方法,當(dāng)被用于分類時(shí)叫做分類
    發(fā)表于 03-04 10:11 ?8330次閱讀

    大數(shù)據(jù)—決策樹

    大數(shù)據(jù)————決策樹(decision tree) 決策樹(decision tree):是一種基本的分類與回歸方法,主要討論分類的決策樹。 在分類問題中,表示基于特征對(duì)實(shí)例進(jìn)行分類的過程,可以
    的頭像 發(fā)表于 10-20 10:01 ?1217次閱讀
    主站蜘蛛池模板: 三级免费黄录像| 欧美xxxx色视频在线观看| 成人午夜久久| 亚洲啪啪| 性xxxxx| xxx性xxx乱| 亚洲国产欧美在线成人aaaa| 性欧美网站| 欧美一二| 艹逼视频免费| 天堂在线最新版资源www| 黄黄网址| 亚洲一一在线| 亚洲综人网| 欧美一级特黄乱妇高清视频| 好男人社区在线观看www| ass嫩美女胴体| 奇米网在线观看| 国内啪啪| 亚洲成人观看| 丁香婷婷电影| 国产在线理论片免费播放| 中文字幕视频一区| 亚洲狠狠操| xxx86日本人| 91大神免费视频| 亚欧色| 一级视频在线| vip影院在线观看| 在线种子搜索| 你懂的在线视频网站| 一级片在线免费观看| 亚洲一一在线| 黄a视频在线观看| 100000免费啪啪18免进| 在线天堂中文www官网| 国产精品免费观看网站| 精品久久天干天天天按摩| 午夜爽爽视频| 福利片免费一区二区三区| se97se成人亚洲网站在线观看|