在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

邏輯回歸的對(duì)于數(shù)據(jù)學(xué)習(xí)的關(guān)鍵

lviY_AI_shequ ? 來(lái)源:劉林華 ? 作者:電子發(fā)燒友 ? 2018-12-29 15:55 ? 次閱讀

在幾年之前,我踏進(jìn)了數(shù)據(jù)科學(xué)的大門。之前還是軟件工程師的時(shí)候,我是最先開(kāi)始在網(wǎng)上自學(xué)的(在開(kāi)始我的碩士學(xué)位之前)。我記得當(dāng)我搜集網(wǎng)上資源的時(shí)候,我看見(jiàn)的只有玲瑯滿目的算法名稱—線性回歸,支持向量機(jī)(SVM),決策樹(shù)(DT),隨即森林(RF),神經(jīng)網(wǎng)絡(luò)等。對(duì)于剛剛開(kāi)始學(xué)習(xí)的我來(lái)說(shuō),這些算法都是非常有難度的。但是,后來(lái)我才發(fā)現(xiàn):要成為一名數(shù)據(jù)科學(xué)家,最重要的事情就是了解和學(xué)習(xí)整個(gè)的流程,比如,如何獲取和處理數(shù)據(jù),如何理解數(shù)據(jù),如何搭建模型,如何評(píng)估結(jié)果(模型和數(shù)據(jù)處理階段)和優(yōu)化。為了達(dá)到這個(gè)目的,我認(rèn)為從邏輯回歸開(kāi)始入門是非常不錯(cuò)的選擇,這樣不但可以讓我們很快熟悉這個(gè)流程,而且不被那些高大上的算法所嚇倒。

因此,下面將要列出5條原因來(lái)說(shuō)明為什么最開(kāi)始學(xué)習(xí)邏輯回歸是入門最好的選擇。當(dāng)然,這只是我個(gè)人的看法,對(duì)于其他人可能有更快捷的學(xué)習(xí)方式。

1. 因?yàn)槟P退惴ㄖ皇钦麄€(gè)流程的一部分

像我之前提到的一樣,數(shù)據(jù)科學(xué)工作不僅僅是建模,它還包括以下的步驟:

o4YBAFwnKYeAIpjzAAB5dS5UtLw815.png

可以看到,“建模” 只是這個(gè)重復(fù)過(guò)程的一部分而已。當(dāng)開(kāi)展一個(gè)數(shù)據(jù)產(chǎn)品的時(shí)候,一個(gè)非常好的實(shí)踐就是首先建立你的整個(gè)流程,讓它越簡(jiǎn)單越好,清楚地明白你想要獲得什么,如何進(jìn)行評(píng)估測(cè)試,以及你的baseline是什么。隨后在這基礎(chǔ)上,你就可以加入一些比較炫酷的機(jī)器學(xué)習(xí)算法,并知道你的效果是否變得更好。

順便說(shuō)下,邏輯回歸(或者任何ML算法)可能不只是在建模部分所使用,它們也可能在數(shù)據(jù)理解和數(shù)據(jù)準(zhǔn)備的階段使用,填補(bǔ)缺失值就是一個(gè)例子。

2. 因?yàn)槟銓⒁玫乩斫鈾C(jī)器學(xué)習(xí)

我想當(dāng)大家看到本篇的時(shí)候,第一個(gè)想要問(wèn)的問(wèn)題就是:為什么是邏輯回歸,而不是線性回歸。真相其實(shí)是都無(wú)所謂,理解了機(jī)器學(xué)習(xí)才是最終目的。說(shuō)到這個(gè)問(wèn)題,就要引出監(jiān)督學(xué)習(xí)的兩個(gè)類型了,分類(邏輯回歸)和回歸(線性回歸)。當(dāng)你使用邏輯回歸或者線性回歸建立你整個(gè)流程的時(shí)候(越簡(jiǎn)單越好),你會(huì)慢慢地熟悉機(jī)器學(xué)習(xí)里的一些概念,例如監(jiān)督學(xué)習(xí)v.s非監(jiān)督學(xué)習(xí),分類v.s回歸,線性v.s非線性等,以及更多問(wèn)題。你也會(huì)知道如何準(zhǔn)備你的數(shù)據(jù),以及這過(guò)程中有什么挑戰(zhàn)(比如填補(bǔ)缺失值和特征選擇),如何度量評(píng)估模型,是該使用準(zhǔn)確率,還是精準(zhǔn)率和召回率,RUC AUC?又或者可能是 “均方差”和“皮爾遜相關(guān)”?所有的概念都都是數(shù)據(jù)科學(xué)學(xué)習(xí)過(guò)程中非常重要的知識(shí)點(diǎn)。等慢慢熟悉了這些概念以后,你就可以用更復(fù)雜的模型或者技巧(一旦你掌握了之后)來(lái)替代你之前的簡(jiǎn)單模型了。

3. 因?yàn)檫壿嫽貧w有的時(shí)候,已經(jīng)足夠用了

邏輯回歸是一個(gè)非常強(qiáng)大的算法,甚至對(duì)于一些非常復(fù)雜的問(wèn)題,它都可以做到游刃有余。拿MNIST舉例,你可以使用邏輯回歸獲得95%的準(zhǔn)確率,這個(gè)數(shù)字可能并不是一個(gè)非常出色的結(jié)果,但是它對(duì)于保證你的整個(gè)流程工作來(lái)說(shuō)已經(jīng)足夠好了。實(shí)際上,如果說(shuō)能夠選擇正確且有代表性的特征,邏輯回歸完全可以做的非常好。

當(dāng)處理非線性的問(wèn)題時(shí),我們有時(shí)候會(huì)用可解釋的線性方式來(lái)處理原始數(shù)據(jù)。可以用一個(gè)簡(jiǎn)單的例子來(lái)說(shuō)明這種思想:現(xiàn)在我們想要基于這種思想來(lái)做一個(gè)簡(jiǎn)單的分類任務(wù)。

X1x2|Y==================-201201-100100

如果我們將數(shù)據(jù)可視化,我們可以看到?jīng)]有一條直線可以將它們分開(kāi)。

在這種情況下,如果不對(duì)數(shù)據(jù)做一些處理的話,邏輯回歸是無(wú)法幫到我們的,但是如果我們不用x2特征,而使用x12來(lái)代替,那么數(shù)據(jù)將會(huì)變成這樣:

X1x1^2|Y==================-241241-110110

現(xiàn)在,就存在一條直線可以將它們分開(kāi)了。當(dāng)然,這個(gè)簡(jiǎn)單的例子只是為了說(shuō)明這種思想,對(duì)于現(xiàn)實(shí)世界來(lái)講,很難發(fā)現(xiàn)或找到如何改變數(shù)據(jù)的方法以可以使用線性分類器來(lái)幫助你。但是,如果你可以在特征工程和特征選擇上多花些時(shí)間,那么很可能你的邏輯回歸是可以很好的勝任的。

4. 因?yàn)檫壿嫽貧w是統(tǒng)計(jì)中的一個(gè)重要工具

線性回歸不僅僅可以用來(lái)預(yù)測(cè)。如果你有了一個(gè)訓(xùn)練好的線性模型,你可以通過(guò)它學(xué)習(xí)到因變量和自變量之間的關(guān)系,或者用更多的ML語(yǔ)言來(lái)說(shuō),你可以學(xué)習(xí)到特征變量和目標(biāo)變量的關(guān)系。一個(gè)簡(jiǎn)單的例子,房?jī)r(jià)預(yù)測(cè),我們有很多房屋特征,還有實(shí)際的房?jī)r(jià)。我們基于這些數(shù)據(jù)訓(xùn)練一個(gè)線性回歸模型,然后得到了很好的結(jié)果。通過(guò)訓(xùn)練,我們可以發(fā)現(xiàn)模型訓(xùn)練后會(huì)給每個(gè)特征分配相應(yīng)的權(quán)重。如果某個(gè)特征權(quán)重很高,我們就可以說(shuō)這個(gè)特征比其它的特征更重要。比如房屋大小特征,對(duì)于房?jī)r(jià)的變化會(huì)有50%的權(quán)重,因?yàn)榉课荽笮∶吭黾右黄矫追績(jī)r(jià)就會(huì)增加10k。線性回歸是一個(gè)了解數(shù)據(jù)以及統(tǒng)計(jì)規(guī)律的非常強(qiáng)的工具,同理,邏輯回歸也可以給每個(gè)特征分配各自的權(quán)重,通過(guò)這個(gè)權(quán)重,我們就可以了解特征的重要性。

5. 因?yàn)檫壿嫽貧w是學(xué)習(xí)神經(jīng)元網(wǎng)絡(luò)很好的開(kāi)始

當(dāng)學(xué)習(xí)神經(jīng)元網(wǎng)絡(luò)的時(shí)候,最開(kāi)始學(xué)習(xí)的邏輯回歸對(duì)我?guī)椭艽蟆D憧梢詫⒕W(wǎng)絡(luò)中的每個(gè)神經(jīng)元當(dāng)作一個(gè)邏輯回歸:它有輸入,有權(quán)重,和閾值,并可以通過(guò)點(diǎn)乘,然后再應(yīng)用某個(gè)非線性的函數(shù)得到輸出。更多的是,一個(gè)神經(jīng)元網(wǎng)絡(luò)的最后一層大多數(shù)情況下是一個(gè)簡(jiǎn)單的線性模型,看一下最基本的神經(jīng)元網(wǎng)絡(luò):

如果我們更深入地觀察一下output層,可以看到這是一個(gè)簡(jiǎn)單的線性(或者邏輯)回歸,有hidden layer 2作為輸入,有相應(yīng)的權(quán)重,我們可以做一個(gè)點(diǎn)乘然后加上一個(gè)非線性函數(shù)(根據(jù)任務(wù)而定)。可以說(shuō),對(duì)于神經(jīng)元網(wǎng)絡(luò),一個(gè)非常好的思考方式是:將NN劃分為兩部分,一個(gè)是代表部分,一個(gè)是分類/回歸部分。

第一部分(左側(cè))嘗試從數(shù)據(jù)中學(xué)習(xí)并具有很好的代表性,然后它會(huì)幫助第二個(gè)部分(右側(cè))來(lái)完成一個(gè)線性的分類或者回歸任務(wù)。

總結(jié)

成為一個(gè)數(shù)據(jù)科學(xué)家你可能需要掌握很多知識(shí),第一眼看上去,好像學(xué)習(xí)算法才是最重要的部分。實(shí)際的情況是:學(xué)習(xí)算法確實(shí)是所有情況中最復(fù)雜的部分,需要花費(fèi)大量的時(shí)間和努力來(lái)理解,但它也只是數(shù)據(jù)科學(xué)中的一個(gè)部分,把握整體更為關(guān)鍵。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4615

    瀏覽量

    92962
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47336

    瀏覽量

    238696

原文標(biāo)題:5個(gè)原因告訴你:為什么在成為數(shù)據(jù)科學(xué)家之前,“邏輯回歸”是第一個(gè)需要學(xué)習(xí)的

文章出處:【微信號(hào):AI_shequ,微信公眾號(hào):人工智能愛(ài)好者社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    機(jī)器學(xué)習(xí)實(shí)戰(zhàn)之logistic回歸

    logistic回歸是一種廣義的線性回歸,通過(guò)構(gòu)造回歸函數(shù),利用機(jī)器學(xué)習(xí)來(lái)實(shí)現(xiàn)分類或者預(yù)測(cè)。 原理 上一文簡(jiǎn)單介紹了線性回歸,與
    的頭像 發(fā)表于 09-29 15:17 ?2354次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>實(shí)戰(zhàn)之logistic<b class='flag-5'>回歸</b>

    回歸預(yù)測(cè)之入門

    式子吧,不然看一些相關(guān)的論文可就看不懂了,這個(gè)系列主要將會(huì)著重于去機(jī)器學(xué)習(xí)的數(shù)學(xué)描述這個(gè)部分,將會(huì)覆蓋但不一定局限于回歸、聚類、分類等算法。回歸與梯度下降:回歸在數(shù)學(xué)上來(lái)說(shuō)是給定一個(gè)點(diǎn)
    發(fā)表于 10-15 10:19

    淺析邏輯回歸

    ML-邏輯回歸-公式推導(dǎo)- 多種實(shí)現(xiàn)
    發(fā)表于 04-25 15:35

    回歸算法之邏輯回歸的介紹

    回歸算法之邏輯回歸
    發(fā)表于 05-21 16:25

    回歸算法有哪些,常用回歸算法(3種)詳解

    隨機(jī)梯度下降來(lái)估計(jì)系數(shù)。損失函數(shù)通常被定義為交叉熵項(xiàng): 邏輯回歸用于分類問(wèn)題,例如,對(duì)于給定的醫(yī)療數(shù)據(jù),可以使用邏輯
    發(fā)表于 07-28 14:36

    TensorFlow邏輯回歸處理MNIST數(shù)據(jù)

    /get_started/mnist/beginners提供。大部分人已經(jīng)對(duì) MNIST 數(shù)據(jù)集很熟悉了,它是機(jī)器學(xué)習(xí)的基礎(chǔ),包含手寫數(shù)字的圖像及其標(biāo)簽來(lái)說(shuō)明它是哪個(gè)數(shù)字。對(duì)于邏輯
    發(fā)表于 08-11 19:36

    TensorFlow邏輯回歸處理MNIST數(shù)據(jù)

    /get_started/mnist/beginners提供。大部分人已經(jīng)對(duì) MNIST 數(shù)據(jù)集很熟悉了,它是機(jī)器學(xué)習(xí)的基礎(chǔ),包含手寫數(shù)字的圖像及其標(biāo)簽來(lái)說(shuō)明它是哪個(gè)數(shù)字。對(duì)于邏輯
    發(fā)表于 08-11 19:36

    Edge Impulse的回歸模型

    Edge Impulse的回歸模型可以從數(shù)據(jù)學(xué)習(xí)模式,并將其應(yīng)用于新數(shù)據(jù)。 非常適合預(yù)測(cè)數(shù)字連續(xù)值。
    發(fā)表于 12-20 06:21

    使用KNN進(jìn)行分類和回歸

    的模型,可以用于回歸和分類任務(wù)。大部分的機(jī)器學(xué)習(xí)算法都是用它的名字來(lái)描述的KNN也是一樣,使用一個(gè)空間來(lái)表示鄰居的度量,度量空間根據(jù)集合成員的特征定義它們之間的距離。對(duì)于每個(gè)測(cè)試實(shí)例,使用鄰域來(lái)估計(jì)響應(yīng)
    發(fā)表于 10-28 14:44

    Python機(jī)器學(xué)習(xí)回歸部分的應(yīng)用與教程

    install quandl 首先,對(duì)于我們將其用于機(jī)器學(xué)習(xí)而言,什么是回歸呢?它的目標(biāo)是接受連續(xù)數(shù)據(jù),尋找最適合數(shù)據(jù)的方程,并能夠?qū)μ囟?/div>
    發(fā)表于 11-15 18:14 ?4847次閱讀
    Python機(jī)器<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>回歸</b>部分的應(yīng)用與教程

    對(duì)于機(jī)器學(xué)習(xí)/數(shù)據(jù)科學(xué)初學(xué)者 應(yīng)該掌握的七種回歸分析方法

    對(duì)于機(jī)器學(xué)習(xí)/數(shù)據(jù)科學(xué)的初學(xué)者來(lái)說(shuō),線性回歸,或者Logistic回歸是許多人在建立預(yù)測(cè)模型時(shí)接觸的第一/第二種方法。由于這兩種算法適用性極
    的頭像 發(fā)表于 04-27 15:55 ?4364次閱讀

    DNN與邏輯回歸效果一樣?

    谷歌用深度學(xué)習(xí)分析電子病例的重磅論文給出了一個(gè)意外的實(shí)驗(yàn)結(jié)果,DNN與邏輯回歸效果一樣,引發(fā)了熱烈討論。
    的頭像 發(fā)表于 06-28 16:01 ?6224次閱讀
    DNN與<b class='flag-5'>邏輯</b><b class='flag-5'>回歸</b>效果一樣?

    機(jī)器學(xué)習(xí)回歸分析和回歸方法

    根據(jù)受歡迎程度,線性回歸邏輯回歸經(jīng)常是我們做預(yù)測(cè)模型時(shí),且第一個(gè)學(xué)習(xí)的算法。但是如果認(rèn)為回歸就兩個(gè)算法,就大錯(cuò)特錯(cuò)了。事實(shí)上我們有許多類型
    的頭像 發(fā)表于 01-19 17:22 ?3895次閱讀

    機(jī)器學(xué)習(xí):線性回歸邏輯回歸的理論與實(shí)戰(zhàn)

    1、基本概念 要進(jìn)行機(jī)器學(xué)習(xí),首先要有數(shù)據(jù)。從數(shù)據(jù)中學(xué)得模型的過(guò)程稱為“學(xué)習(xí)”或“訓(xùn)練”。其對(duì)應(yīng)的過(guò)程中有幾個(gè)基本術(shù)語(yǔ)需要知道。 (1)訓(xùn)練集:模型訓(xùn)練過(guò)程中使用的
    的頭像 發(fā)表于 12-26 09:58 ?2022次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>:線性<b class='flag-5'>回歸</b>與<b class='flag-5'>邏輯</b><b class='flag-5'>回歸</b>的理論與實(shí)戰(zhàn)

    Python 梯度計(jì)算模塊如何實(shí)現(xiàn)一個(gè)邏輯回歸模型

    的標(biāo)準(zhǔn)數(shù)據(jù)庫(kù)下編寫的損失函數(shù),它就可以自動(dòng)計(jì)算損失函數(shù)的導(dǎo)數(shù)(梯度)。 我們將從普通斜率計(jì)算開(kāi)始,介紹到如何只使用它來(lái)實(shí)現(xiàn)一個(gè)邏輯回歸模型。 1.準(zhǔn)備 開(kāi)始之前,你要確保Python和pip已經(jīng)成功安裝在電腦上,如果沒(méi)有,可以訪
    的頭像 發(fā)表于 10-21 11:01 ?505次閱讀
    Python 梯度計(jì)算模塊如何實(shí)現(xiàn)一個(gè)<b class='flag-5'>邏輯</b><b class='flag-5'>回歸</b>模型
    主站蜘蛛池模板: 热re99久久精品国99热| 狠狠操狠狠干| 日本三级视频在线观看| 男男浪荡双性受hplay| 国产98在线传媒在线视频| 又黄又粗暴的120秒免费gif视频| 欧美日本一区二区三区| 亚洲综合欧美日本另类激情| 99视频在线永久免费观看| 欧美成人精品一级高清片| 男人边吃奶边爱边做视频日韩 | 天天操天天干天天插| 国产乱码精品一区二区三 | 伊人久久大香线蕉综合7| 69xx女xo69| 在线视频91| 国产小视频在线观看| 欧美色惰aⅴ| 婷婷久久五月天| 91美女在线播放| 爱爱网站免费| 操美女大逼逼| 手机在线看a| 去毛片| 天堂网www在线| 国产午夜精品久久久久免费视小说| 日本xxxx69日本| 欧美性妇| dyav午夜片| 欧美3区| 狠狠色噜噜狠狠狠狠97不卡| 亚洲大胆精品337p色| 亚洲福利秒拍一区二区| 日木69xxxhd| 国产性老妇女做爰在线| 特级黄毛片| 日产乱码免费一卡二卡在线| 日本色图在线| 国产高清免费在线| 最新欧美一级视频| 狠狠操狠狠插|