在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

PyTorch教程-19.2. 超參數(shù)優(yōu)化 API

jf_pJlTbmA9 ? 來(lái)源:PyTorch ? 作者:PyTorch ? 2023-06-05 15:44 ? 次閱讀

在我們深入研究該方法之前,我們將首先討論一個(gè)基本的代碼結(jié)構(gòu),它使我們能夠有效地實(shí)現(xiàn)各種 HPO 算法。一般來(lái)說(shuō),這里考慮的所有 HPO 算法都需要實(shí)現(xiàn)兩個(gè)決策原語(yǔ),即搜索和調(diào)度。首先,他們需要對(duì)新的超參數(shù)配置進(jìn)行采樣,這通常涉及對(duì)配置空間的某種搜索。其次,對(duì)于每個(gè)配置,HPO 算法需要安排其評(píng)估并決定為其分配多少資源。一旦我們開始評(píng)估配置,我們就會(huì)將其稱為試用。我們將這些決定映射到兩個(gè)類,HPOSearcher和 HPOScheduler。除此之外,我們還提供HPOTuner執(zhí)行優(yōu)化過(guò)程的類。

這種調(diào)度器和搜索器的概念也在流行的 HPO 庫(kù)中實(shí)現(xiàn),例如 Syne Tune (Salinas等人,2022 年)、Ray Tune (Liaw等人,2018 年)或 Optuna (Akiba等人,2019 年)。

import time
from scipy import stats
from d2l import torch as d2l

19.2.1。搜尋器

下面我們定義一個(gè)搜索器的基類,通過(guò)函數(shù)提供一個(gè)新的候選配置sample_configuration。實(shí)現(xiàn)此功能的一種簡(jiǎn)單方法是隨機(jī)對(duì)配置進(jìn)行統(tǒng)一采樣,就像我們?cè)?第 19.1 節(jié)中對(duì)隨機(jī)搜索所做的那樣。更復(fù)雜的算法,例如貝葉斯優(yōu)化,將根據(jù)先前試驗(yàn)的表現(xiàn)做出這些決定。因此,隨著時(shí)間的推移,這些算法能夠?qū)Ω邢M暮蜻x人進(jìn)行抽樣。我們添加該update 功能是為了更新以前試驗(yàn)的歷史,然后可以利用它來(lái)改進(jìn)我們的抽樣分布。

class HPOSearcher(d2l.HyperParameters): #@save
  def sample_configuration() -> dict:
    raise NotImplementedError

  def update(self, config: dict, error: float, additional_info=None):
    pass

以下代碼顯示了如何在此 API 中實(shí)現(xiàn)我們上一節(jié)中的隨機(jī)搜索優(yōu)化器。作為一個(gè)輕微的擴(kuò)展,我們?cè)试S用戶通過(guò) 指定要評(píng)估的第一個(gè)配置 initial_config,而隨后的配置是隨機(jī)抽取的。

class RandomSearcher(HPOSearcher): #@save
  def __init__(self, config_space: dict, initial_config=None):
    self.save_hyperparameters()

  def sample_configuration(self) -> dict:
    if self.initial_config is not None:
      result = self.initial_config
      self.initial_config = None
    else:
      result = {
        name: domain.rvs()
        for name, domain in self.config_space.items()
      }
    return result

19.2.2。調(diào)度程序

除了新試驗(yàn)的采樣配置外,我們還需要決定何時(shí)進(jìn)行試驗(yàn)以及進(jìn)行多長(zhǎng)時(shí)間。實(shí)際上,所有這些決定都是由 完成的HPOScheduler,它將新配置的選擇委托給HPOSearcher. suggest只要某些訓(xùn)練資源可用,就會(huì)調(diào)用該方法。除了調(diào)用sample_configuration搜索器之外,它還可以決定諸如max_epochs(即訓(xùn)練模型的時(shí)間)之類的參數(shù)。update每當(dāng)試驗(yàn)返回新觀察時(shí)調(diào)用該方法。

class HPOScheduler(d2l.HyperParameters): #@save
  def suggest(self) -> dict:
    raise NotImplementedError

  def update(self, config: dict, error: float, info=None):
    raise NotImplementedError

要實(shí)現(xiàn)隨機(jī)搜索以及其他 HPO 算法,我們只需要一個(gè)基本的調(diào)度程序,它可以在每次新資源可用時(shí)調(diào)度新的配置。

class BasicScheduler(HPOScheduler): #@save
  def __init__(self, searcher: HPOSearcher):
    self.save_hyperparameters()

  def suggest(self) -> dict:
    return self.searcher.sample_configuration()

  def update(self, config: dict, error: float, info=None):
    self.searcher.update(config, error, additional_info=info)

19.2.3。調(diào)諧器

最后,我們需要一個(gè)組件來(lái)運(yùn)行調(diào)度器/搜索器并對(duì)結(jié)果進(jìn)行一些簿記。下面的代碼實(shí)現(xiàn)了 HPO 試驗(yàn)的順序執(zhí)行,在下一個(gè)訓(xùn)練作業(yè)之后評(píng)估一個(gè)訓(xùn)練作業(yè),并將作為一個(gè)基本示例。我們稍后將使用 Syne Tune來(lái)處理更具可擴(kuò)展性的分布式 HPO 案例。

class HPOTuner(d2l.HyperParameters): #@save
  def __init__(self, scheduler: HPOScheduler, objective: callable):
    self.save_hyperparameters()
    # Bookeeping results for plotting
    self.incumbent = None
    self.incumbent_error = None
    self.incumbent_trajectory = []
    self.cumulative_runtime = []
    self.current_runtime = 0
    self.records = []

  def run(self, number_of_trials):
    for i in range(number_of_trials):
      start_time = time.time()
      config = self.scheduler.suggest()
      print(f"Trial {i}: config = {config}")
      error = self.objective(**config)
      error = float(error.cpu().detach().numpy())
      self.scheduler.update(config, error)
      runtime = time.time() - start_time
      self.bookkeeping(config, error, runtime)
      print(f"  error = {error}, runtime = {runtime}")

19.2.4。簿記 HPO 算法的性能

對(duì)于任何 HPO 算法,我們最感興趣的是性能最佳的配置(稱為incumbent)及其在給定掛鐘時(shí)間后的驗(yàn)證錯(cuò)誤。這就是我們跟蹤runtime每次迭代的原因,其中包括運(yùn)行評(píng)估的時(shí)間(調(diào)用 objective)和做出決策的時(shí)間(調(diào)用 scheduler.suggest)。在續(xù)集中,我們將繪制 cumulative_runtimeagainstincumbent_trajectory以可視化根據(jù)( 和) 定義的 HPO 算法的任何時(shí)間性能。這使我們不僅可以量化優(yōu)化器找到的配置的工作情況,還可以量化優(yōu)化器找到它的速度。schedulersearcher

@d2l.add_to_class(HPOTuner) #@save
def bookkeeping(self, config: dict, error: float, runtime: float):
  self.records.append({"config": config, "error": error, "runtime": runtime})
  # Check if the last hyperparameter configuration performs better
  # than the incumbent
  if self.incumbent is None or self.incumbent_error > error:
    self.incumbent = config
    self.incumbent_error = error
  # Add current best observed performance to the optimization trajectory
  self.incumbent_trajectory.append(self.incumbent_error)
  # Update runtime
  self.current_runtime += runtime
  self.cumulative_runtime.append(self.current_runtime)

19.2.5。示例:優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)的超參數(shù)

我們現(xiàn)在使用隨機(jī)搜索的新實(shí)現(xiàn)來(lái)優(yōu)化 第 7.6 節(jié)中卷積神經(jīng)網(wǎng)絡(luò)的批量大小和學(xué)習(xí)率。我們通過(guò)定義目標(biāo)函數(shù),這將再次成為驗(yàn)證錯(cuò)誤。LeNet

def hpo_objective_lenet(learning_rate, batch_size, max_epochs=10): #@save
  model = d2l.LeNet(lr=learning_rate, num_classes=10)
  trainer = d2l.HPOTrainer(max_epochs=max_epochs, num_gpus=1)
  data = d2l.FashionMNIST(batch_size=batch_size)
  model.apply_init([next(iter(data.get_dataloader(True)))[0]], d2l.init_cnn)
  trainer.fit(model=model, data=data)
  validation_error = trainer.validation_error()
  return validation_error

我們還需要定義配置空間。此外,要評(píng)估的第一個(gè)配置是 第 7.6 節(jié)中使用的默認(rèn)設(shè)置。

config_space = {
  "learning_rate": stats.loguniform(1e-2, 1),
  "batch_size": stats.randint(32, 256),
}
initial_config = {
  "learning_rate": 0.1,
  "batch_size": 128,
}

現(xiàn)在我們可以開始隨機(jī)搜索了:

searcher = RandomSearcher(config_space, initial_config=initial_config)
scheduler = BasicScheduler(searcher=searcher)
tuner = HPOTuner(scheduler=scheduler, objective=hpo_objective_lenet)
tuner.run(number_of_trials=5)

  error = 0.17130666971206665, runtime = 125.33143877983093

pYYBAGR9PVuAO21vAAF9e-RRQjc464.svg

poYBAGR9PV2ARgCBAAF-SCs89bw491.svg

pYYBAGR9PV-AcPXNAAF_kYZ_xQw068.svg

poYBAGR9PWGAWTGGAAF_K5I3kmI689.svg

pYYBAGR9PWSAQ2zDAAFzyB-zwLc643.svg

下面我們繪制了現(xiàn)任者的優(yōu)化軌跡,以獲得隨機(jī)搜索的任何時(shí)間性能:

board = d2l.ProgressBoard(xlabel="time", ylabel="error")
for time_stamp, error in zip(
  tuner.cumulative_runtime, tuner.incumbent_trajectory
):
  board.draw(time_stamp, error, "random search", every_n=1)

pYYBAGR9PWaAXsTGAAD-6d95H6c198.svg

19.2.6. 比較 HPO 算法

正如訓(xùn)練算法或模型架構(gòu)一樣,了解如何最好地比較不同的 HPO 算法非常重要。每次 HPO 運(yùn)行取決于隨機(jī)性的兩個(gè)主要來(lái)源:訓(xùn)練過(guò)程的隨機(jī)效應(yīng),例如隨機(jī)權(quán)重初始化或小批量排序,以及 HPO 算法本身的內(nèi)在隨機(jī)性,例如隨機(jī)搜索的隨機(jī)抽樣。因此,在比較不同的算法時(shí),至關(guān)重要的是多次運(yùn)行每個(gè)實(shí)驗(yàn)并報(bào)告基于隨機(jī)數(shù)生成器的不同種子的算法多次重復(fù)的總體統(tǒng)計(jì)數(shù)據(jù),例如平均值或中值。

為了說(shuō)明這一點(diǎn),我們比較隨機(jī)搜索(參見第 19.1.2 節(jié))和貝葉斯優(yōu)化(Snoek等人,2012 年)在調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的超參數(shù)方面的作用。每個(gè)算法都經(jīng)過(guò)評(píng)估50次使用不同的隨機(jī)種子。實(shí)線表示現(xiàn)任者在這些方面的平均表現(xiàn) 50重復(fù)和虛線標(biāo)準(zhǔn)偏差。我們可以看到隨機(jī)搜索和貝葉斯優(yōu)化在大約 1000 秒內(nèi)的表現(xiàn)大致相同,但貝葉斯優(yōu)化可以利用過(guò)去的觀察來(lái)識(shí)別更好的配置,從而在之后迅速超越隨機(jī)搜索。

pYYBAGR9PWmALMmaAAGSAjFthXk382.svg

圖 19.2.1示例任意時(shí)間性能圖來(lái)比較兩種算法 A 和 B。

19.2.7。概括

本節(jié)列出了一個(gè)簡(jiǎn)單而靈活的接口來(lái)實(shí)現(xiàn)我們將在本章中看到的各種 HPO 算法。在流行的開源 HPO 框架中可以找到類似的接口。我們還研究了如何比較 HPO 算法,以及需要注意的潛在陷阱。

19.2.8。練習(xí)

本練習(xí)的目標(biāo)是為一個(gè)更具挑戰(zhàn)性的 HPO 問(wèn)題實(shí)現(xiàn)目標(biāo)函數(shù),并運(yùn)行更真實(shí)的實(shí)驗(yàn)。我們將使用第 5.6 節(jié)DropoutMLP 中實(shí)現(xiàn)的兩個(gè)隱藏層 MLP 。

編寫目標(biāo)函數(shù),它應(yīng)該取決于模型的所有超參數(shù)和batch_size。使用 max_epochs=50。GPU 在這里無(wú)濟(jì)于事,所以num_gpus=0. 提示:修改hpo_objective_lenet.

選擇一個(gè)合理的搜索空間,其中num_hiddens_1, num_hiddens_2是整數(shù)[8,1024], dropout 值位于[0,0.95], 而batch_size在于 [16,384]. 為 提供代碼config_space,使用來(lái)自 的合理分布scipy.stats。

對(duì)此示例運(yùn)行隨機(jī)搜索number_of_trials=20并繪制結(jié)果。確保首先評(píng)估第 5.6 節(jié)的默認(rèn)配置,即 .initial_config = {'num_hiddens_1': 256, 'num_hiddens_2': 256, 'dropout_1': 0.5, 'dropout_2': 0.5, 'lr': 0.1, 'batch_size': 256}

在本練習(xí)中,您將實(shí)現(xiàn)一個(gè)新的搜索器( 的子類 HPOSearcher),它根據(jù)過(guò)去的數(shù)據(jù)做出決策。這取決于參數(shù)probab_local, num_init_random。它的 sample_configuration工作原理如下。對(duì)于第一次 num_init_random調(diào)用,執(zhí)行與 相同的操作 RandomSearcher.sample_configuration。否則,以概率 ,執(zhí)行與 相同的操作 。否則,選擇迄今為止達(dá)到最小驗(yàn)證錯(cuò)誤的配置,隨機(jī)選擇其超參數(shù)之一,并像中一樣隨機(jī)采樣其值,但保持所有其他值相同。返回此配置,除了這個(gè)超參數(shù)外,它與迄今為止的最佳配置相同。1 - probab_localRandomSearcher.sample_configurationRandomSearcher.sample_configuration

編寫這個(gè)新的LocalSearcher. 提示:您的搜索者需要 config_space作為構(gòu)造參數(shù)。隨意使用 type 的成員RandomSearcher。您還必須實(shí)施該update方法。

重新運(yùn)行上一個(gè)練習(xí)中的實(shí)驗(yàn),但使用新的搜索器而不是RandomSearcher. 對(duì),嘗試不同的值probab_local。num_init_random但是,請(qǐng)注意,不同 HPO 方法之間的適當(dāng)比較需要多次重復(fù)實(shí)驗(yàn),并且理想情況下要考慮許多基準(zhǔn)任務(wù)。

Discussions

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4623

    瀏覽量

    93110
  • 參數(shù)
    +關(guān)注

    關(guān)注

    11

    文章

    1846

    瀏覽量

    32329
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    808

    瀏覽量

    13283
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Pytorch模型訓(xùn)練實(shí)用PDF教程【中文】

    ?模型部分?還是優(yōu)化器?只有這樣不斷的通過(guò)可視化診斷你的模型,不斷的對(duì)癥下藥,才能訓(xùn)練出一個(gè)較滿意的模型。本教程內(nèi)容及結(jié)構(gòu):本教程內(nèi)容主要為在 PyTorch 中訓(xùn)練一個(gè)模型所可能涉及到的方法及函數(shù),并且
    發(fā)表于 12-21 09:18

    改善深層神經(jīng)網(wǎng)絡(luò)--參數(shù)優(yōu)化、batch正則化和程序框架 學(xué)習(xí)總結(jié)

    《深度學(xué)習(xí)工程師-吳恩達(dá)》02改善深層神經(jīng)網(wǎng)絡(luò)--參數(shù)優(yōu)化、batch正則化和程序框架 學(xué)習(xí)總結(jié)
    發(fā)表于 06-16 14:52

    如何利用PyTorch API構(gòu)建CNN?

      很多人對(duì)于卷積神經(jīng)網(wǎng)絡(luò)(CNN)并不了解,卷積神經(jīng)網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò),它包括卷積計(jì)算并具有很深的結(jié)構(gòu),卷積神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)的代表性算法之一。那么如何利用PyTorch API構(gòu)建CNN
    發(fā)表于 07-16 18:13

    pytorch模型轉(zhuǎn)換需要注意的事項(xiàng)有哪些?

    ,并且可以更積極地進(jìn)行優(yōu)化。 支持什么格式的pytorch模型? 答:Sophon的PyTorch模型編譯工具BMNETP只接受PyTorch的JIT模型JIT模型(TorchScri
    發(fā)表于 09-18 08:05

    調(diào)參心得:如何優(yōu)化參數(shù)的,如何證實(shí)方法是有效的

    自動(dòng)化參數(shù)優(yōu)化及其工具最主要的問(wèn)題之一,是你常常偏離原本的工作方式。預(yù)測(cè)任務(wù)無(wú)關(guān)的參數(shù)優(yōu)化
    的頭像 發(fā)表于 08-31 09:53 ?2w次閱讀

    PerferredNetworks發(fā)布了其參數(shù)優(yōu)化框架的beta版本

    Optuna作為參數(shù)優(yōu)化框架可以和PFN自己的深度學(xué)習(xí)框架Chainer充分結(jié)合使用。只需要在Chainer中寫接受來(lái)自O(shè)ptuna的參數(shù)
    的頭像 發(fā)表于 12-14 09:47 ?3120次閱讀

    PyTorch教程6.2之參數(shù)管理

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程6.2之參數(shù)管理.pdf》資料免費(fèi)下載
    發(fā)表于 06-05 15:24 ?0次下載
    <b class='flag-5'>PyTorch</b>教程6.2之<b class='flag-5'>參數(shù)</b>管理

    PyTorch教程12.1之優(yōu)化和深度學(xué)習(xí)

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程12.1之優(yōu)化和深度學(xué)習(xí).pdf》資料免費(fèi)下載
    發(fā)表于 06-05 15:08 ?0次下載
    <b class='flag-5'>PyTorch</b>教程12.1之<b class='flag-5'>優(yōu)化</b>和深度學(xué)習(xí)

    PyTorch教程19.1之什么是參數(shù)優(yōu)化

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程19.1之什么是參數(shù)優(yōu)化.pdf》資料免費(fèi)下載
    發(fā)表于 06-05 10:25 ?0次下載
    <b class='flag-5'>PyTorch</b>教程19.1之什么是<b class='flag-5'>超</b><b class='flag-5'>參數(shù)</b><b class='flag-5'>優(yōu)化</b>

    PyTorch教程19.2參數(shù)優(yōu)化API

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程19.2參數(shù)優(yōu)化API.pdf》資料免費(fèi)下載
    發(fā)表于 06-05 10:27 ?0次下載
    <b class='flag-5'>PyTorch</b>教程<b class='flag-5'>19.2</b>之<b class='flag-5'>超</b><b class='flag-5'>參數(shù)</b><b class='flag-5'>優(yōu)化</b><b class='flag-5'>API</b>

    PyTorch教程19.4之多保真超參數(shù)優(yōu)化

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程19.4之多保真超參數(shù)優(yōu)化.pdf》資料免費(fèi)下載
    發(fā)表于 06-05 10:45 ?0次下載
    <b class='flag-5'>PyTorch</b>教程19.4之多保真超<b class='flag-5'>參數(shù)</b><b class='flag-5'>優(yōu)化</b>

    PyTorch教程23.8之API

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程23.8之API.pdf》資料免費(fèi)下載
    發(fā)表于 06-05 17:48 ?0次下載
    <b class='flag-5'>PyTorch</b>教程23.8之<b class='flag-5'>API</b>

    PyTorch教程-19.1. 什么是參數(shù)優(yōu)化

    19.1. 什么是參數(shù)優(yōu)化?? Colab [火炬]在 Colab 中打開筆記本 Colab [mxnet] Open the notebook in Colab Colab [jax
    的頭像 發(fā)表于 06-05 15:44 ?613次閱讀
    <b class='flag-5'>PyTorch</b>教程-19.1. 什么是<b class='flag-5'>超</b><b class='flag-5'>參數(shù)</b><b class='flag-5'>優(yōu)化</b>?

    PyTorch教程-19.4. 多保真超參數(shù)優(yōu)化

    SageMaker Studio Lab 中打開筆記本 即使在中等規(guī)模的數(shù)據(jù)集上,訓(xùn)練神經(jīng)網(wǎng)絡(luò)也可能很昂貴。根據(jù)配置空間(第 19.1.1.2 節(jié)),參數(shù)優(yōu)化需要數(shù)十到數(shù)百次函數(shù)評(píng)估才能找到性能
    的頭像 發(fā)表于 06-05 15:44 ?452次閱讀
    <b class='flag-5'>PyTorch</b>教程-19.4. 多保真超<b class='flag-5'>參數(shù)</b><b class='flag-5'>優(yōu)化</b>

    2.0優(yōu)化PyTorch推理與AWS引力子處理器

    2.0優(yōu)化PyTorch推理與AWS引力子處理器
    的頭像 發(fā)表于 08-31 14:27 ?640次閱讀
    2.0<b class='flag-5'>優(yōu)化</b><b class='flag-5'>PyTorch</b>推理與AWS引力子處理器
    主站蜘蛛池模板: 久久在线播放| 一级毛片看真人在线视频| 国产亚洲papapa| 久久综合九色| 福利视频免费看| 啪啪免费看| 亚洲视频二| 国产高清在线观看| 香蕉久久夜色精品国产小说| 干美女在线视频| 丁香婷婷成人| 天天视频黄| 成人黄色三级| 亚洲一区二区三区高清| 一级做a爱片在线播放| 天堂在线国产| 男人的天堂一区二区视频在线观看 | 日本大片黄色| 黄色aaaa| 天天做天天爱天天射| 98色花堂国产第一页| 热久久国产| 欧洲另类一二三四区| 亚洲免费在线看| 亚洲国产成人精品不卡青青草原| 色婷婷亚洲精品综合影院| 依依成人精品无v国产| 四虎国产精品永久在线| 性夜影院午夜看片| 拍拍拍拍拍拍拍无挡大全免费| 久久综合久久精品| 午夜精品一区二区三区在线观看 | 免费一级成人毛片| 97人人艹| 国产精品久久久久久久免费大片| 亚洲一区免费看| 婷婷六月久久综合丁香一二| 久久国产三级| 日本污视频| 性视频网址| 日韩成人免费一级毛片|