在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

探析常見的幾種最優化方法

lviY_AI_shequ ? 來源:cc ? 2019-01-17 09:25 ? 次閱讀

我們每個人都會在我們的生活或者工作中遇到各種各樣的最優化問題,比如每個企業和個人都要考慮的一個問題“在一定成本下,如何使利潤最大化”等。最優化方法是一種數學方法,它是研究在給定約束之下如何尋求某些因素(的量),以使某一(或某些)指標達到最優的一些學科的總稱。隨著學習的深入,博主越來越發現最優化方法的重要性,學習和工作中遇到的大多問題都可以建模成一種最優化模型進行求解,比如我們現在學習的機器學習算法,大部分的機器學習算法的本質都是建立優化模型,通過最優化方法對目標函數(或損失函數)進行優化,從而訓練出最好的模型。常見的最優化方法有梯度下降法、牛頓法和擬牛頓法、共軛梯度法等等。

1. 梯度下降法(Gradient Descent)

梯度下降法是最早最簡單,也是最為常用的最優化方法。梯度下降法實現簡單,當目標函數是凸函數時,梯度下降法的解是全局解。一般情況下,其解不保證是全局最優解,梯度下降法的速度也未必是最快的。梯度下降法的優化思想是用當前位置負梯度方向作為搜索方向,因為該方向為當前位置的最快下降方向,所以也被稱為是”最速下降法“。最速下降法越接近目標值,步長越小,前進越慢。梯度下降法的搜索迭代示意圖如下圖所示:

梯度下降法的缺點:

(1)靠近極小值時收斂速度減慢,如下圖所示;

(2)直線搜索時可能會產生一些問題;

(3)可能會“之字形”地下降。

從上圖可以看出,梯度下降法在接近最優解的區域收斂速度明顯變慢,利用梯度下降法求解需要很多次的迭代。

在機器學習中,基于基本的梯度下降法發展了兩種梯度下降方法,分別為隨機梯度下降法和批量梯度下降法。

比如對一個線性回歸(Linear Logistics)模型,假設下面的h(x)是要擬合的函數,J(theta)為損失函數,theta是參數,要迭代求解的值,theta求解出來了,那最終要擬合的函數h(theta)就出來了。其中m是訓練集的樣本個數,n是特征的個數。

1)批量梯度下降法(Batch Gradient Descent,BGD)

(1)將J(theta)對theta求偏導,得到每個theta對應的的梯度:

(2)由于是要最小化風險函數,所以按每個參數theta的梯度負方向,來更新每個theta:

(3)從上面公式可以注意到,它得到的是一個全局最優解,但是每迭代一步,都要用到訓練集所有的數據,如果m很大,那么可想而知這種方法的迭代速度會相當的慢。所以,這就引入了另外一種方法——隨機梯度下降。

對于批量梯度下降法,樣本個數m,x為n維向量,一次迭代需要把m個樣本全部帶入計算,迭代一次計算量為m*n2。

2)隨機梯度下降(Stochastic Gradient Descent,SGD)

(1)上面的風險函數可以寫成如下這種形式,損失函數對應的是訓練集中每個樣本的梯度,而上面批量梯度下降對應的是所有的訓練樣本:

(2)每個樣本的損失函數,對theta求偏導得到對應梯度,來更新theta:

(3)隨機梯度下降是通過每個樣本來迭代更新一次,如果樣本量很大的情況(例如幾十萬),那么可能只用其中幾萬條或者幾千條的樣本,就已經將theta迭代到最優解了,對比上面的批量梯度下降,迭代一次需要用到十幾萬訓練樣本,一次迭代不可能最優,如果迭代10次的話就需要遍歷訓練樣本10次。但是,SGD伴隨的一個問題是噪音較BGD要多,使得SGD并不是每次迭代都向著整體最優化方向。

隨機梯度下降每次迭代只使用一個樣本,迭代一次計算量為n2,當樣本個數m很大的時候,隨機梯度下降迭代一次的速度要遠高于批量梯度下降方法。兩者的關系可以這樣理解:隨機梯度下降方法以損失很小的一部分精確度和增加一定數量的迭代次數為代價,換取了總體的優化效率的提升。增加的迭代次數遠遠小于樣本的數量。

對批量梯度下降法和隨機梯度下降法的總結:

批量梯度下降---最小化所有訓練樣本的損失函數,使得最終求解的是全局的最優解,即求解的參數是使得風險函數最小,但是對于大規模樣本問題效率低下。

隨機梯度下降---最小化每條樣本的損失函數,雖然不是每次迭代得到的損失函數都向著全局最優方向, 但是大的整體的方向是向全局最優解的,最終的結果往往是在全局最優解附近,適用于大規模訓練樣本情況。

2. 牛頓法和擬牛頓法(Newton's method &Quasi-Newton Methods)

1)牛頓法(Newton's method)

牛頓法是一種在實數域和復數域上近似求解方程的方法。方法使用函數f(x)的泰勒級數的前面幾項來尋找方程f(x) = 0的根。牛頓法最大的特點就在于它的收斂速度很快。

具體步驟:

首先,選擇一個接近函數f(x)零點的x0,計算相應的f(x0)和切線斜率f '(x0)(這里f '表示函數f 的導數)。然后我們計算穿過點(x0, f (x0))并且斜率為f'(x0)的直線和x軸的交點的x坐標,也就是求如下方程的解:

我們將新求得的點的x坐標命名為x1,通常x1會比x0更接近方程f (x) = 0的解。因此我們現在可以利用x1開始下一輪迭代。迭代公式可化簡為如下所示:

已經證明,如果f '是連續的,并且待求的零點x是孤立的,那么在零點x周圍存在一個區域,只要初始值x0位于這個鄰近區域內,那么牛頓法必定收斂。 并且,如果f ' (x)不為0, 那么牛頓法將具有平方收斂的性能. 粗略的說,這意味著每迭代一次,牛頓法結果的有效數字將增加一倍。

由于牛頓法是基于當前位置的切線來確定下一次的位置,所以牛頓法又被很形象地稱為是"切線法"。牛頓法的搜索路徑(二維情況)如下圖所示:

牛頓法搜索動態示例圖:

關于牛頓法和梯度下降法的效率對比:

從本質上去看,牛頓法是二階收斂,梯度下降是一階收斂,所以牛頓法就更快。如果更通俗地說的話,比如你想找一條最短的路徑走到一個盆地的最底部,梯度下降法每次只從你當前所處位置選一個坡度最大的方向走一步,牛頓法在選擇方向時,不僅會考慮坡度是否夠大,還會考慮你走了一步之后,坡度是否會變得更大。所以,可以說牛頓法比梯度下降法看得更遠一點,能更快地走到最底部。(牛頓法目光更加長遠,所以少走彎路;相對而言,梯度下降法只考慮了局部的最優,沒有全局思想。)

根據wiki上的解釋,從幾何上說,牛頓法就是用一個二次曲面去擬合你當前所處位置的局部曲面,而梯度下降法是用一個平面去擬合當前的局部曲面,通常情況下,二次曲面的擬合會比平面更好,所以牛頓法選擇的下降路徑會更符合真實的最優下降路徑。

注:紅色的牛頓法的迭代路徑,綠色的是梯度下降法的迭代路徑。

牛頓法的優缺點總結:

優點:二階收斂,收斂速度快;

缺點:牛頓法是一種迭代算法,每一步都需要求解目標函數的Hessian矩陣的逆矩陣,計算比較復雜。

2)擬牛頓法(Quasi-Newton Methods)

擬牛頓法是求解非線性優化問題最有效的方法之一,于20世紀50年代由美國Argonne國家實驗室的物理學家W.C.Davidon所提出來。Davidon設計的這種算法在當時看來是非線性優化領域最具創造性的發明之一。不久R. Fletcher和M. J. D. Powell證實了這種新的算法遠比其他方法快速和可靠,使得非線性優化這門學科在一夜之間突飛猛進。

擬牛頓法的本質思想是改善牛頓法每次需要求解復雜的Hessian矩陣的逆矩陣的缺陷,它使用正定矩陣來近似Hessian矩陣的逆,從而簡化了運算的復雜度。擬牛頓法和最速下降法一樣只要求每一步迭代時知道目標函數的梯度。通過測量梯度的變化,構造一個目標函數的模型使之足以產生超線性收斂性。這類方法大大優于最速下降法,尤其對于困難的問題。另外,因為擬牛頓法不需要二階導數的信息,所以有時比牛頓法更為有效。如今,優化軟件中包含了大量的擬牛頓算法用來解決無約束,約束,和大規模的優化問題。

具體步驟:

擬牛頓法的基本思想如下。首先構造目標函數在當前迭代xk的二次模型:

這里Bk是一個對稱正定矩陣,于是我們取這個二次模型的最優解作為搜索方向,并且得到新的迭代點:

其中我們要求步長ak滿足Wolfe條件。這樣的迭代與牛頓法類似,區別就在于用近似的Hesse矩陣Bk代替真實的Hesse矩陣。所以擬牛頓法最關鍵的地方就是每一步迭代中矩陣Bk

的更新。現在假設得到一個新的迭代xk+1,并得到一個新的二次模型:

我們盡可能地利用上一步的信息來選取Bk。具體地,我們要求

從而得到

這個公式被稱為割線方程。常用的擬牛頓法有DFP算法和BFGS算法。

3. 共軛梯度法(Conjugate Gradient)

共軛梯度法是介于最速下降法與牛頓法之間的一個方法,它僅需利用一階導數信息,但克服了最速下降法收斂慢的缺點,又避免了牛頓法需要存儲和計算Hesse矩陣并求逆的缺點,共軛梯度法不僅是解決大型線性方程組最有用的方法之一,也是解大型非線性最優化最有效的算法之一。在各種優化算法中,共軛梯度法是非常重要的一種。其優點是所需存儲量小,具有步收斂性,穩定性高,而且不需要任何外來參數。

具體的實現步驟請參加wiki百科共軛梯度法。

下圖為共軛梯度法和梯度下降法搜索最優解的路徑對比示意圖:

注:綠色為梯度下降法,紅色代表共軛梯度法

MATLAB代碼:

function [x] = conjgrad(A,b,x) r=b-A*x; p=r; rsold=r'*r; for i=1:length(b) Ap=A*p; alpha=rsold/(p'*Ap); x=x+alpha*p; r=r-alpha*Ap; rsnew=r'*r; if sqrt(rsnew)<1e-10 ? ? ? ? ? ? ?break; ? ? ? ?end ? ? ? ?p=r+(rsnew/rsold)*p; ? ? ? ?rsold=rsnew; ? ?endend

4. 啟發式優化方法

啟發式方法指人在解決問題時所采取的一種根據經驗規則進行發現的方法。其特點是在解決問題時,利用過去的經驗,選擇已經行之有效的方法,而不是系統地、以確定的步驟去尋求答案。啟發式優化方法種類繁多,包括經典的模擬退火方法、遺傳算法、蟻群算法以及粒子群算法等等。

還有一種特殊的優化算法被稱之多目標優化算法,它主要針對同時優化多個目標(兩個及兩個以上)的優化問題,這方面比較經典的算法有NSGAII算法、MOEA/D算法以及人工免疫算法等。

5. 解決約束優化問題——拉格朗日乘數法

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器學習
    +關注

    關注

    66

    文章

    8418

    瀏覽量

    132635

原文標題:【Math】常見的幾種最優化方法

文章出處:【微信號:AI_shequ,微信公眾號:人工智能愛好者社區】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    【PDF】最優化方法及MATLAB的實現

    【PDF】最優化方法及MATLAB的實現附件:
    發表于 02-28 11:10

    程序最優化

    個以上要求的數組,并放入到二維數組B中。最終只需要顯示B。3,以上代碼運行效率最優化。(即運行時間最短)
    發表于 09-25 16:34

    介紹幾種常見電阻器的測試方法

    本文介紹了幾種常見電阻器的測試方法
    發表于 05-10 07:12

    代碼優化的目的是什么?具體方法包括哪幾種

    代碼優化的目的是什么?具體方法包括哪幾種?代碼優化工作有什么創新點?
    發表于 06-03 06:17

    LVGL優化幀率的方法有哪幾種

    LVGL優化幀率的方法有哪幾種
    發表于 02-10 07:48

    遺傳算法在雷達組網中應用探析

    文章探析了遺傳算法用于 雷達組網 最優化布陣的基本原理和關鍵技術, 其方法主要是通過一定數量的染色體群世代更迭, 優勝劣汰, 能夠較好較快的得出最優解, 從而避免了采用傳統
    發表于 08-30 10:49 ?35次下載
    遺傳算法在雷達組網中應用<b class='flag-5'>探析</b>

    Matlab最優化方法

    介紹最優化方法,其中包括網絡最大流,指派問題,運輸問題,最短路,關鍵路線法,以及二部圖的匹配問題。其使用方法有別于傳統方法,而是利用MATLAB構造多個自編函數,使所述問
    發表于 11-30 16:41 ?0次下載
    Matlab<b class='flag-5'>最優化</b><b class='flag-5'>方法</b>

    幾種常見路由器設置方法

    幾種常見路由器設置方法以寬帶路由器D-Link的di-740p型號為例介紹路由器設置方法
    發表于 12-12 16:43 ?1.4w次閱讀

    最優化方法及其Matlab程序設計

    最優化方法及其Matlab程序設計
    發表于 12-17 20:59 ?0次下載

    機器學習經典算法-最優化方法

    機器學習算法之最優化方法
    發表于 09-04 10:05 ?0次下載

    提出多目標最優化方法 進而產生柏雷多最優電動汽車充電策略

    充電站最大化其收入與電力系統最大化其負載因子形成一個多目標優化問題。本文提出多目標最優化方法來解決此多目標優化問題,進而產生柏雷多(Pareto)
    的頭像 發表于 01-16 13:52 ?6367次閱讀
    提出多目標<b class='flag-5'>最優化</b><b class='flag-5'>方法</b> 進而產生柏雷多<b class='flag-5'>最優</b>電動汽車充電策略

    常見最優化方法介紹

    從上面公式可以注意到,它得到的是一個全局最優解,但是每迭代一步,都要用到訓練集所有的數據,如果m很大,那么可想而知這種方法的迭代速度會相當的慢。所以,這就引入了另外一種方法——隨機梯度下降。
    的頭像 發表于 11-24 09:23 ?2940次閱讀

    線性和非線性最優化理論、方法、軟件及應用的介紹

    最優化在航空航天、生命科學、水利科學、地球科學、工程技術等自然科學領域和經濟金融等社會科學領域有著廣泛和重要的應用, 它的研究和發展一直得到廣泛的關注. 最優化的研究包含理論、方法和應用.最優
    的頭像 發表于 10-28 11:12 ?2460次閱讀

    幾種常見的電源檢測方法

    BOSHIDA模塊電源 幾種常見的電源檢測方法 電流測量的方法有很多種,每種方法適用不同的場合,每種方法
    的頭像 發表于 04-18 09:17 ?3132次閱讀

    MCU批量生產下載程序的幾種常見方法

    MCU批量生產下載程序的幾種常見方法
    的頭像 發表于 10-24 17:22 ?1629次閱讀
    MCU批量生產下載程序的<b class='flag-5'>幾種</b><b class='flag-5'>常見方法</b>
    主站蜘蛛池模板: 色综合天天综合网国产人| 欧美一级黄色片在线观看| 校园春色亚洲欧美| 福利99| 国产免费久久精品99| 日本黄色大片在线观看| 欧美色图亚洲激情| 夜夜想夜夜爽天天爱天天摸| 天天操天天干天天摸| 91大神在线看| 日韩欧美在线中文字幕| 一级看片| 亚洲男人的天堂在线观看| 色偷偷偷偷| 午夜看片| 国产伦精品一区二区三区免 | 久色网| japanese色系国产在线高清| 99福利| 四虎国产在线| 午夜影院啊啊啊| 国产美女一级高清免费观看| 综合成人在线| 国产美女免费| 亚洲mm8成为人影院| 五月婷婷色视频| wwwxx免费| 亚洲一区高清| 婷婷六月天激情| 97蜜桃| 亚洲不卡视频在线| 毛片一级黄色| 天天亚洲| 2023av网站| 欧美三级影院| 黄色大成网站| 四虎影视在线观看| 天天在线影院| 一级特黄特黄xxx视频| 欧美成人精品一区二区| 欧美影院在线|