每一波浪潮的到來,都意味一片無人占領(lǐng)的藍(lán)海,也意味著眾多新成長起來的巨頭,還意味著什么?大量的技術(shù)人員需求,供不應(yīng)求的開發(fā)市場,以及從業(yè)者的高薪與眾多的機(jī)會(huì)。
我們最常做的事情是目送著上一次浪潮的余波遠(yuǎn)去,感嘆自己生不逢時(shí),卻沒有意識(shí)到,下一波浪潮已經(jīng)到了我們腳下。
沒錯(cuò),我們說的就是AI。
身在IT圈中的人,應(yīng)該都有著直觀的認(rèn)識(shí)。目前國內(nèi)知名的互聯(lián)網(wǎng)企業(yè)無一不在建立自己的人工智能技術(shù)團(tuán)隊(duì),以期用AI技術(shù),提升產(chǎn)品的體驗(yàn)和智能化程度。
但與此同時(shí),各種不明覺厲的名詞也嚇退了很多非科班出身的開發(fā)者。什么叫卷積神經(jīng)網(wǎng)絡(luò)?什么叫凸優(yōu)化?是不是還要回去重讀高數(shù),線代,概率?那么一大堆公式,感覺完全看不懂啊?聽說沒個(gè)名校博士出身都搞不了這個(gè)?
在很久以前的一篇知乎回答中提過,作為開發(fā)人員,AI領(lǐng)域界在我看來會(huì)分成這么幾個(gè)層次
1. 學(xué)術(shù)研究者
他們的工作是從理論上詮釋機(jī)器學(xué)習(xí)的各個(gè)方面,試圖找出“這樣設(shè)計(jì)模型/參數(shù)為什么效果更好”,并且為其他從業(yè)者提供更優(yōu)秀的模型,甚至將理論研究向前推進(jìn)一步。能夠做到這一步的人,可以說鳳毛麟角,天賦是繞不過去的大山,機(jī)遇和努力也缺一不可。?
2. 算法改進(jìn)者?
他們也許無法回答出“我的方法為什么work”,也許沒有Hinton,LeCun那樣足以載入史冊的重大成果,但是卻能根據(jù)經(jīng)驗(yàn)和一些奇思妙想,將現(xiàn)有的模型玩出更好的效果,或者提出一些改進(jìn)的模型。這些人通常都是各個(gè)機(jī)器學(xué)習(xí)巨頭公司的中堅(jiān)力量或者成長中的獨(dú)角獸,使用什么模型對(duì)他們來講也不是問題,根據(jù)所處的環(huán)境,通常都有固定的幾個(gè)選擇。在這個(gè)層面,insight和idea才是重要的東西,各種工具的區(qū)別,影響真的沒那么大。可能會(huì)讓一個(gè)結(jié)果早得到或者晚得到幾天或者幾周,卻不可能影響“有沒有成果”。?
3. 工業(yè)實(shí)現(xiàn)者?
這些人基本上不會(huì)在算法領(lǐng)域涉入太深,也就是了解一下各個(gè)算法的實(shí)現(xiàn),各個(gè)模型的結(jié)構(gòu)。他們更多地是根據(jù)論文去復(fù)現(xiàn)優(yōu)秀的成果,或者使用其他人復(fù)現(xiàn)出來的成果,并且試圖去在工業(yè)上應(yīng)用它。
對(duì)于大部分IT人來說,做到第三類,也就是工業(yè)實(shí)現(xiàn)這個(gè)層面,已經(jīng)足夠好了,至少,我們已經(jīng)有了親身參與這個(gè)大時(shí)代的機(jī)會(huì),僅就這一點(diǎn)來說,便已經(jīng)擊敗了全國99%的人(斜眼笑的表情)。
不光是普通程序猿這么說,文藝的程序猿和……額,高大上的程序猿也都這么說。
我說,呵呵。
答案只有一個(gè):Just Do IT(去搞IT吧,少年)
成為人工智能工程師,在我看來,要把機(jī)器學(xué)習(xí)、深度學(xué)習(xí)掌握好,就可以入行拼搏了!另外,理論必須要結(jié)合項(xiàng)目實(shí)戰(zhàn):因?yàn)樽鳛?a href="http://www.xsypw.cn/v/tag/1730/" target="_blank">程序員,讀十遍書不如跑一遍程序,與其花費(fèi)大量的時(shí)間去啃書本,不如親手完成自己的程序并運(yùn)行它。我們在寫出代碼的同時(shí),就會(huì)了解到自己還有哪些地方不夠清楚,從而針對(duì)性地學(xué)習(xí)。
02
我們先來說說,機(jī)器學(xué)習(xí)應(yīng)該學(xué)習(xí)哪些。
學(xué)習(xí)任何東西,勿在浮沙筑高臺(tái)(對(duì)這句話眼熟的請舉手),有一些基礎(chǔ)的知識(shí)還是需要掌握的。例如在計(jì)算機(jī)視覺領(lǐng)域,根據(jù)我們團(tuán)隊(duì)內(nèi)部培訓(xùn)的經(jīng)驗(yàn),為了能夠獨(dú)立進(jìn)行機(jī)器學(xué)習(xí)的開發(fā)工作,最好首先完成這么幾項(xiàng)課程:
1. 入門機(jī)器學(xué)習(xí):
熟悉機(jī)器學(xué)習(xí)領(lǐng)域的經(jīng)典算法、模型及實(shí)現(xiàn)的任務(wù)等,同時(shí)學(xué)習(xí)搭建和配置機(jī)器學(xué)習(xí)環(huán)境,并學(xué)會(huì)用 線性回歸 解決一個(gè)實(shí)際問題。
2. Logistic回歸分析、神經(jīng)網(wǎng)絡(luò)、SVM:
掌握數(shù)據(jù)集探索;理解分類任務(wù)算法(Logistic回歸、神經(jīng)網(wǎng)絡(luò)、SVM)原理;學(xué)會(huì)在scikit-learn框架下采用各分類算法分類具體任務(wù)。
3. 決策樹模型與集成學(xué)習(xí)算法:
損失函數(shù):信息增益、Gini系數(shù);劃分:窮舉搜索、近似搜索;正則:L2/L1;預(yù)防過擬合:預(yù)剪枝及后剪枝;Bagging原理;Boosting原理;流行的GBDT工具:XGBoost和LightGBM
4. 聚類、降維、矩陣分解:
主成分分析(PCA);獨(dú)立成分分析(ICA);非負(fù)矩陣分解(NFM);隱因子模型(LFM);KMeans聚類和混合高斯模型GMM(EM算法);吸引子傳播聚類算法(Affinity Propagation聚類算法)
5. 特征工程、模型融合& 推薦系統(tǒng)實(shí)現(xiàn):
學(xué)會(huì)常用數(shù)據(jù)預(yù)處理方法及特征編碼方法;學(xué)習(xí)特征工程的一般處理原則;組合各種特征工程技術(shù)和機(jī)器學(xué)習(xí)算法實(shí)現(xiàn)推薦系統(tǒng)。
上面的課程大概會(huì)消耗你1個(gè)月多的所有業(yè)余時(shí)間。但是相信我,這是值得的。
如果實(shí)在連一兩個(gè)月的業(yè)余時(shí)間都拿不出來,好吧,我來偷偷告訴你最最最基本的一個(gè)要求,滿足了這個(gè)要求,你就能夠算是機(jī)器學(xué)習(xí)入門了:?會(huì)算矩陣乘法
別笑,說正經(jīng)的,在這個(gè)框架高度封裝的年代,梯度不需要自己算,損失不需要自己求,反向傳導(dǎo)更是被處理得妥妥的,在不求甚解的情況下,你甚至只需要知道這么幾個(gè)概念就可以開始著手寫第一個(gè)程序了:
它就是通過一系列矩陣運(yùn)算(或者類似的一些其他運(yùn)算)將輸入空間映射到輸出空間而已。參與運(yùn)算的矩陣的值稱為權(quán)重,是需要通過不斷迭代來尋找到最優(yōu)值。?
當(dāng)前的權(quán)重值離最優(yōu)值還差多遠(yuǎn),用一個(gè)數(shù)值來表示,這個(gè)值就叫損失,計(jì)算這個(gè)值的函數(shù)叫損失函數(shù)。?
當(dāng)前的權(quán)重值應(yīng)該調(diào)大還是調(diào)小,這個(gè)值通過對(duì)損失函數(shù)求導(dǎo)來判斷,這個(gè)求導(dǎo)得到的函數(shù)叫做梯度。?
通過損失和梯度來更新權(quán)重的方法叫做反向傳導(dǎo)。?
迭代的方法稱為梯度下降。?
雖然這么寫出來的程序一定是不知其所以然,但是其實(shí)20年前我第一次用C++寫Hello world的時(shí)候也是一臉懵逼的,我相信,每個(gè)能夠投身機(jī)器學(xué)習(xí)開發(fā)工作的程序猿,都是有大毅力大勇氣的,自然不會(huì)欠缺繼續(xù)學(xué)習(xí)的動(dòng)力和決心。
03
我們再來說說,深度學(xué)習(xí)應(yīng)該學(xué)習(xí)哪些。
深度學(xué)習(xí)著重掌握卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò),使用大量真實(shí)的數(shù)據(jù)集,結(jié)合實(shí)際場景和案例介紹深度學(xué)習(xí)技術(shù)的應(yīng)用范圍與效果。
1. 神經(jīng)網(wǎng)絡(luò)入門及深度學(xué)習(xí)環(huán)境配置:
熟悉神經(jīng)網(wǎng)絡(luò)領(lǐng)域的常用術(shù)語、安裝并配置深度學(xué)習(xí)框架Tensorflow,學(xué)會(huì)用Tensorflow解決一個(gè)實(shí)際問題。
2. 神經(jīng)網(wǎng)絡(luò)基礎(chǔ)及卷積神經(jīng)網(wǎng)絡(luò)原理:
使用不同結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)驗(yàn)證網(wǎng)絡(luò)結(jié)構(gòu)對(duì)效果的影響;了解卷積神經(jīng)網(wǎng)絡(luò)的相關(guān)概念和基礎(chǔ)知識(shí),并通過實(shí)戰(zhàn)案例理解CNN局部相關(guān)性與權(quán)值共享等特性。
3. 卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn):
圖像分類及檢測任務(wù):學(xué)習(xí)圖像分類任務(wù)及檢測任務(wù)目前主要模型算法,并通過兩個(gè)實(shí)戰(zhàn)案例學(xué)習(xí)在Tensorflow框架下訓(xùn)練CNN模型。
4. 卷積神經(jīng)網(wǎng)絡(luò)之圖像分割實(shí)例:
掌握分割任務(wù)簡介、反卷積(deconv/transpose-conv)、FCN
5. 循環(huán)神經(jīng)網(wǎng)絡(luò)原理:
RNN基本原理
門限循環(huán)單元(GRU)
長短期記憶單元(LSTM)
詞向量提?。篧ord2Vec
編碼器—解碼器結(jié)構(gòu)
注意力機(jī)制模型:Attention Model
圖片標(biāo)注(Image Captioning)
圖片問答(Visual Question Answering)
04
恭喜你,成為人工智能工程師群中的一員了
接下來就可以收集一些自己的數(shù)據(jù),并且訓(xùn)練一些自己的識(shí)別引擎;或者嘗試著優(yōu)化這個(gè)模型,感受一下所謂調(diào)參黨的痛苦;又或者直接嘗試實(shí)現(xiàn)ResNet、Inception這些更為先進(jìn)的網(wǎng)絡(luò)來刷刷Cifar;再不然可以嘗試著向NLP或者強(qiáng)化學(xué)習(xí)方向去學(xué)習(xí)一下??傊@些事情遠(yuǎn)沒有看起來那么難。
當(dāng)然,不論那條路,學(xué)習(xí),進(jìn)步和自我鞭策都是逃避不掉的必修課。一個(gè)新生的領(lǐng)域,勃勃的生機(jī)必然也意味著新成果的層出不窮。完成我上面提到的三門課程只能讓一個(gè)人從門外漢變成圈里人,有了進(jìn)入這個(gè)領(lǐng)域,趕上這波浪潮的基本資格,至于到底是成為弄潮兒還是直接被大浪吞沒,還是那句話,不勞苦必然無所得。努力學(xué)習(xí)不一定能修成正果,而不去努力學(xué)習(xí),則注定是一無所獲。
最后,祝福,祝福各位能在AI領(lǐng)域里大放異彩。
附技術(shù)學(xué)習(xí)路線圖:
編輯:黃飛
?
評(píng)論
查看更多