在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

KerasHub統(tǒng)一、全面的預(yù)訓(xùn)練模型庫

谷歌開發(fā)者 ? 來源:谷歌開發(fā)者 ? 2024-12-20 10:32 ? 次閱讀

深度學(xué)習(xí)領(lǐng)域正在迅速發(fā)展,在處理各種類型的任務(wù)中,預(yù)訓(xùn)練模型變得越來越重要。Keras 以其用戶友好型 API 和對(duì)易用性的重視而聞名,始終處于這一動(dòng)向的前沿。Keras 擁有專用的內(nèi)容庫,如用于文本模型的 KerasNLP 和用于計(jì)算機(jī)視覺模型的 KerasCV。

然而,隨著模型使各模態(tài)之間的界限越來越模糊(想象一下強(qiáng)大的聊天 LLM 具有圖像輸入功能或是在視覺任務(wù)中利用文本編碼器),維持這些獨(dú)立的領(lǐng)域變得不那么實(shí)際。NLP 和 CV 之間的區(qū)別可能會(huì)阻礙真正多模態(tài)模型的發(fā)展和部署,從而導(dǎo)致冗余的工作和碎片化的用戶體驗(yàn)。

為了解決這個(gè)問題,我們很高興地宣布 Keras 生態(tài)系統(tǒng)迎來重大變革:隆重推出 KerasHub,一個(gè)統(tǒng)一、全面的預(yù)訓(xùn)練模型庫,簡(jiǎn)化了對(duì)前沿 NLP 和 CV 架構(gòu)的訪問。KerasHub 是一個(gè)中央存儲(chǔ)庫,您可以在穩(wěn)定且熟悉的 Keras 框架內(nèi)無縫探索和使用最先進(jìn)的模型,例如用于文本分析的 BERT 以及用于圖像分類的 EfficientNet。

KerasHub https://keras.io/keras_hub/

統(tǒng)一的開發(fā)者體驗(yàn)

這種統(tǒng)一不僅簡(jiǎn)化了對(duì)模型的探索和使用,還有助于打造更具凝聚力的生態(tài)系統(tǒng)。通過 KerasHub,您可以利用高級(jí)功能,例如輕松的發(fā)布和共享模型、用于優(yōu)化資源效率的 LoRA 微調(diào)、用于優(yōu)化性能的量化,以及用于處理大規(guī)模數(shù)據(jù)集的強(qiáng)大多主機(jī)訓(xùn)練,所有這些功能都適用于各種模態(tài)。這標(biāo)志著在普及強(qiáng)大的 AI 工具以及加速開發(fā)創(chuàng)新型多模態(tài)應(yīng)用方面邁出了重要一步。

KerasHub 入門步驟

首先在您的系統(tǒng)上安裝 KerasHub,您可以在其中探索大量現(xiàn)成的模型和主流架構(gòu)的不同實(shí)現(xiàn)方式。然后,您就可以輕松地將這些預(yù)訓(xùn)練的模型加載并整合到自己的項(xiàng)目中,并根據(jù)您的具體需求對(duì)其進(jìn)行微調(diào),以獲得最佳性能。

現(xiàn)成的模型 https://keras.io/api/keras_hub/models/

安裝 KerasHub

要安裝帶有 Keras 3 的 KerasHub 最新版本,只需運(yùn)行以下代碼:

$ pip install --upgrade keras-hub
現(xiàn)在,您可以開始探索可用的模型。使用 Keras 3 開始工作的標(biāo)準(zhǔn)環(huán)境設(shè)置在開始使用 KerasHub 時(shí)并不需要任何改變:
import os


# Define the Keras 3 backend you want to use - "jax", "tensorflow" or "torch"
os.environ["KERAS_BACKEND"] = "jax"


# Import Keras 3 and KerasHub modules
import keras
import keras_hub

通過 KerasHub 使用

計(jì)算機(jī)視覺和自然語言模型

現(xiàn)在,您可以通過 KerasHub 訪問和使用 Keras 3 生態(tài)系統(tǒng)中的模型。以下是一些示例:

Gemma

Gemma 是由 Google 開發(fā)的一系列前沿且易于使用的開放模型。依托于與 Gemini 模型相同的研究和技術(shù),Gemma 的基礎(chǔ)模型在各種文本生成任務(wù)中表現(xiàn)出色,包括回答問題、總結(jié)信息以及進(jìn)行邏輯推理。此外,您還可以針對(duì)特定需求自定義模型。

Gemma https://ai.google.dev/gemma/docs/base

在此示例中,您可以使用 Keras 和 KerasHub 加載并開始使用 Gemma 2 2B 參數(shù)生成內(nèi)容。有關(guān) Gemma 變體的更多詳細(xì)信息,請(qǐng)查看 Kaggle 上的 Gemma 模型卡。

# Load Gemma 2 2B preset from Kaggle models 
gemma_lm = keras_hub.models.GemmaCausalLM.from_preset("gemma_2b_en")


# Start generating contents with Gemma 2 2B
gemma_lm.generate("Keras is a", max_length=32)

Gemma 模型卡 https://www.kaggle.com/models/google/gemma/

PaliGemma

PaliGemma 是一款緊湊型的開放模型,可以理解圖像和文本。PaliGemma 從 PaLI-3 中汲取靈感,以 SigLIP 視覺模型和 Gemma 語言模型等開源組件為基礎(chǔ),可以針對(duì)有關(guān)圖像的問題提供詳細(xì)且富有洞察力的答案。因此,該模型可以更深入地了解視覺內(nèi)容,從而實(shí)現(xiàn)諸多功能,例如為圖像和短視頻生成描述、識(shí)別對(duì)象甚至理解圖像中的文本。

import os


# Define the Keras 3 backend you want to use - "jax", "tensorflow" or "torch"
os.environ["KERAS_BACKEND"] = "jax"


# Import Keras 3 and KerasHub modules
import keras
import keras_hub
from keras.utils import get_file, load_img, img_to_array




# Import PaliGemma 3B fine tuned with 224x224 images
pali_gemma_lm = keras_hub.models.PaliGemmaCausalLM.from_preset(
    "pali_gemma_3b_mix_224"
)


# Download a test image and prepare it for usage with KerasHub
url = 'https://storage.googleapis.com/keras-cv/models/paligemma/cow_beach_1.png'
img_path = get_file(origin=url)
img = img_to_array(load_img(image_path))


# Create the prompt with the question about the image
prompt = 'answer where is the cow standing?'


# Generate the contents with PaliGemma
output = pali_gemma_lm.generate(
    inputs={
        "images": img,
        "prompts": prompt,
    }
)

PaliGemma https://ai.google.dev/gemma/docs/paligemma

PaLI-3 https://arxiv.org/abs/2310.09199

SigLIP 視覺模型 https://arxiv.org/abs/2303.15343

Gemma 語言模型 https://arxiv.org/abs/2403.08295

有關(guān) Keras 3 上可用的預(yù)訓(xùn)練模型的更多詳細(xì)信息,請(qǐng)?jiān)?Kaggle 上查看 Keras 中的模型列表。

Kaggle 上查看 Keras 中的模型列表 https://www.kaggle.com/organizations/keras/models

Stability.ai Stable Diffusion 3

您也可以使用計(jì)算機(jī)視覺模型。例如,您可以通過 KerasHub 使用 stability.ai Stable Diffusion 3:

from PIL import Image
from keras.utils import array_to_img
from keras_hub.models import StableDiffusion3TextToImage


text_to_image = StableDiffusion3TextToImage.from_preset(
    "stable_diffusion_3_medium",
    height=1024,
    width=1024,
    dtype="float16",
)


# Generate images with SD3
image = text_to_image.generate(
    "photograph of an astronaut riding a horse, detailed, 8k",
)


# Display the generated image
img = array_to_img(image)
img

Stable Diffusion 3 https://stability.ai/news/stable-diffusion-3

有關(guān) Keras 3 上可用的預(yù)訓(xùn)練計(jì)算機(jī)視覺模型的更多詳細(xì)信息,請(qǐng)查看 Keras 中的模型列表。

Keras 中的模型列表 https://keras.io/api/keras_hub/models/

對(duì)于 KerasNLP 開發(fā)者而言,

有哪些變化?

從 KerasNLP 到 KerasHub 的過渡是一個(gè)簡(jiǎn)單的過程。只需要將 import 語句從 keras_nlp 更新為 keras_hub。

示例: 以前,您可能需要導(dǎo)入 keras_nlp 才能使用 BERT 模型,如下所示

import keras_nlp


# Load a BERT model 
classifier = keras_nlp.models.BertClassifier.from_preset(
    "bert_base_en_uncased", 
    num_classes=2,
)
現(xiàn)在,您只需調(diào)整 import,即可使用 KerasHub:
import keras_hub


# Load a BERT model 
classifier = keras_hub.models.BertClassifier.from_preset(
    "bert_base_en_uncased", 
    num_classes=2,
)

對(duì)于 KerasCV 開發(fā)者而言,

有哪些變化?

如果您當(dāng)前是 KerasCV 用戶,更新到 KerasHub 能夠?yàn)槟鷰硪韵潞锰?

簡(jiǎn)化模型加載:KerasHub 為加載模型提供了統(tǒng)一的 API,如果您同時(shí)使用 KerasCV 和 KerasNLP,這可以簡(jiǎn)化您的代碼。

框架靈活性:如果您有興趣探索 JAX 或 PyTorch 等不同框架,KerasHub 可以讓您更輕松地將這些框架與 KerasCV 和 KerasNLP 模型結(jié)合起來使用。

集中式存儲(chǔ)庫:借助 KerasHub 的統(tǒng)一模型存儲(chǔ)庫,您可以更輕松地查找和訪問模型,未來還可以在其中添加新架構(gòu)。

如何使我的代碼適配 KerasHub?

模型

目前,我們正在將 KerasCV 模型遷移到 KerasHub。雖然大多數(shù)模型已經(jīng)可用,但有些仍在遷移中。請(qǐng)注意,Centerpillar 模型不會(huì)被遷移。您應(yīng)該能夠在 KerasHub 使用任何視覺模型,方法如下:

import keras_hub


# Load a model using preset
Model = keras_hub.models..from_preset('preset_name`)


# or load a custom model by specifying the backbone and preprocessor
Model=keras_hub.models.(backbone=backbone,preprocessor=preprocessor)

Centerpillar https://www.kaggle.com/models/keras/centerpillar

KerasHub 為 KerasCV 開發(fā)者帶來了激動(dòng)人心的新功能,提供了更高的靈活性和擴(kuò)展能力。其中包括:

內(nèi)置預(yù)處理

每個(gè)模型都配備了一個(gè)定制的預(yù)處理器,用于處理包括調(diào)整大小、重新縮放等常規(guī)任務(wù),從而簡(jiǎn)化您的工作流程。 在此之前,預(yù)處理輸入是在向模型提供輸入之前手動(dòng)執(zhí)行的。

# Preprocess inputs for example
def preprocess_inputs(image, label):
    # Resize rescale or do more preprocessing on inputs
    return preprocessed_inputs
backbone = keras_cv.models.ResNet50V2Backbone.from_preset(
    "resnet50_v2_imagenet",
)
model = keras_cv.models.ImageClassifier(
    backbone=backbone,
    num_classes=4,
)
output = model(preprocessed_input)
目前,任務(wù)模型的預(yù)處理已集成到現(xiàn)成的預(yù)設(shè)中。預(yù)處理器會(huì)對(duì)輸入進(jìn)行預(yù)處理,對(duì)樣本圖像進(jìn)行大小調(diào)整和重新縮放。預(yù)處理器是任務(wù)模型的內(nèi)在組件。盡管如此,開發(fā)者還是可以選擇使用個(gè)性化的預(yù)處理器。
classifier = keras_hub.models.ImageClassifier.from_preset('resnet_18_imagenet')
classifier.predict(inputs)

損失函數(shù)

與增強(qiáng)層類似,以前 KerasCV 中的損失函數(shù)現(xiàn)在可在 Keras 中通過 keras.losses. 使用。例如,如果您當(dāng)前正在使用 FocalLoss 函數(shù):

import keras
import keras_cv


keras_cv.losses.FocalLoss(
    alpha=0.25, gamma=2, from_logits=False, label_smoothing=0, **kwargs
)

FocalLoss 函數(shù) https://keras.io/api/keras_cv/losses/focal_loss/

您只需調(diào)整損失函數(shù)定義代碼,使用 keras.losses 而不是 keras_cv.losses:

import keras


keras.losses.FocalLoss(
    alpha=0.25, gamma=2, from_logits=False, label_smoothing=0, **kwargs
)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3243

    瀏覽量

    48836
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5503

    瀏覽量

    121157
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    488

    瀏覽量

    22035

原文標(biāo)題:Keras Hub,您的一站式預(yù)訓(xùn)練模型庫

文章出處:【微信號(hào):Google_Developers,微信公眾號(hào):谷歌開發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    開源AI模型庫是干嘛的

    開源AI模型庫是指那些公開源代碼、允許自由訪問和使用的AI模型集合。這些模型通常經(jīng)過訓(xùn)練,能夠執(zhí)行特定的任務(wù)。以下,是對(duì)開源AI模型庫的詳細(xì)
    的頭像 發(fā)表于 12-14 10:33 ?174次閱讀

    什么是大模型、大模型是怎么訓(xùn)練出來的及大模型作用

    ,基礎(chǔ)模型。 ? 大模型個(gè)簡(jiǎn)稱,完整的叫法,應(yīng)該是“人工智能預(yù)訓(xùn)練模型”。
    的頭像 發(fā)表于 11-25 09:29 ?1419次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓(xùn)練</b>出來的及大<b class='flag-5'>模型</b>作用

    從零開始訓(xùn)練個(gè)大語言模型需要投資多少錢?

    關(guān)于訓(xùn)練技巧和模型評(píng)估的文章,但很少有直接告訴你如何估算訓(xùn)練時(shí)間和成本的。前面分享了些關(guān)于大模型/本地知識(shí)
    的頭像 發(fā)表于 11-08 14:15 ?210次閱讀
    從零開始<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>一</b>個(gè)大語言<b class='flag-5'>模型</b>需要投資多少錢?

    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)

    鷺島論壇數(shù)據(jù)智能系列講座第4期「預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)」10月30日(周三)20:00精彩開播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報(bào)告題目預(yù)
    的頭像 發(fā)表于 10-18 08:09 ?225次閱讀
    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>的基礎(chǔ)<b class='flag-5'>模型</b>下的持續(xù)學(xué)習(xí)

    AI算法/模型/框架/模型庫的含義、區(qū)別與聯(lián)系

    在人工智能(Artificial Intelligence,簡(jiǎn)稱AI)的廣闊領(lǐng)域中,算法、模型、框架和模型庫是構(gòu)成其技術(shù)生態(tài)的重要基石。它們各自承擔(dān)著不同的角色,但又緊密相連,共同推動(dòng)著AI技術(shù)的不斷發(fā)展。以下是對(duì)這四者含義、區(qū)別與聯(lián)系的詳細(xì)闡述。
    的頭像 發(fā)表于 07-17 17:11 ?3865次閱讀

    預(yù)訓(xùn)練和遷移學(xué)習(xí)的區(qū)別和聯(lián)系

    預(yù)訓(xùn)練和遷移學(xué)習(xí)是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域中的兩個(gè)重要概念,它們?cè)谔岣?b class='flag-5'>模型性能、減少訓(xùn)練時(shí)間和降低對(duì)數(shù)據(jù)量的需求方面發(fā)揮著關(guān)鍵作用。本文將從定義、原理、應(yīng)用、區(qū)別和聯(lián)系等方面詳細(xì)探討
    的頭像 發(fā)表于 07-11 10:12 ?1060次閱讀

    大語言模型預(yù)訓(xùn)練

    能力,逐漸成為NLP領(lǐng)域的研究熱點(diǎn)。大語言模型預(yù)訓(xùn)練是這技術(shù)發(fā)展的關(guān)鍵步驟,它通過在海量無標(biāo)簽數(shù)據(jù)上進(jìn)行訓(xùn)練,使
    的頭像 發(fā)表于 07-11 10:11 ?432次閱讀

    LLM預(yù)訓(xùn)練的基本概念、基本原理和主要優(yōu)勢(shì)

    在人工智能和自然語言處理(NLP)領(lǐng)域,大型語言模型(Large Language Model,簡(jiǎn)稱LLM)的興起極大地推動(dòng)了技術(shù)的進(jìn)步和應(yīng)用的發(fā)展。LLM通過在大規(guī)模文本數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,獲得了
    的頭像 發(fā)表于 07-10 11:03 ?1072次閱讀

    預(yù)訓(xùn)練模型的基本原理和應(yīng)用

    預(yù)訓(xùn)練模型(Pre-trained Model)是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域中的個(gè)重要概念,尤其是在自然語言處理(NLP)和計(jì)算機(jī)視覺(CV)等領(lǐng)域中得到了廣泛應(yīng)用。
    的頭像 發(fā)表于 07-03 18:20 ?2830次閱讀

    摩爾線程和滴普科技完成大模型訓(xùn)練與推理適配

    近日,摩爾線程與滴普科技宣布了項(xiàng)重要合作成果。摩爾線程的夸娥(KUAE)千卡智算集群與滴普科技的企業(yè)大模型Deepexi已完成訓(xùn)練及推理適配,共同實(shí)現(xiàn)了700億參數(shù)LLaMA2大語言模型
    的頭像 發(fā)表于 05-30 10:14 ?548次閱讀

    大語言模型:原理與工程時(shí)間+小白初識(shí)大語言模型

    的分布式表示,基于預(yù)訓(xùn)練的詞嵌入表示。 獨(dú)熱表示就是在個(gè)大的向量空間中,其中個(gè)位1,其余都為0,這樣就會(huì)變成單獨(dú)的。 詞的分布式表示:根據(jù)上下文進(jìn)行推斷語義。 基于
    發(fā)表于 05-12 23:57

    【大語言模型:原理與工程實(shí)踐】大語言模型預(yù)訓(xùn)練

    進(jìn)行損失計(jì)算,得到下個(gè)目標(biāo)的預(yù)測(cè)。也會(huì)設(shè)計(jì)些其他輔助訓(xùn)練任務(wù),與主任務(wù)共同訓(xùn)練。選擇合適的預(yù)訓(xùn)練
    發(fā)表于 05-07 17:10

    【大語言模型:原理與工程實(shí)踐】大語言模型的基礎(chǔ)技術(shù)

    就無法修改,因此難以靈活應(yīng)用于下游文本的挖掘中。 詞嵌入表示:將每個(gè)詞映射為個(gè)低維稠密的實(shí)值向量。不同的是,基于預(yù)訓(xùn)練的詞嵌入表示先在語料中利用某種語言
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實(shí)踐】核心技術(shù)綜述

    的復(fù)雜模式和長(zhǎng)距離依賴關(guān)系。 預(yù)訓(xùn)練策略: 預(yù)訓(xùn)練是LLMs訓(xùn)練過程的第階段,
    發(fā)表于 05-05 10:56

    谷歌模型訓(xùn)練軟件有哪些功能和作用

    谷歌模型訓(xùn)練軟件主要是指ELECTRA,這是種新的預(yù)訓(xùn)練方法,源自谷歌AI。ELECTRA不僅擁有BERT的優(yōu)勢(shì),而且在效率上更勝
    的頭像 發(fā)表于 02-29 17:37 ?789次閱讀
    主站蜘蛛池模板: 深爱激情站| 免费看一毛一级毛片视频| 男人天堂网在线观看| 午夜免费观看福利片一区二区三区| 俄罗斯欧美色黄激情| 窝窝午夜看片免费视频| 在线观看视频免费| 亚洲第二色| 色免费在线| 一本到在线观看视频不卡| 深夜桃色影院| 色天网站| 天天视频色| 老熟女毛片| 九色 在线| 国产精品久线观看视频| 熊出没之环球大冒险旧版免费观看| 国产网站在线免费观看| 222aaa免费国产在线观看| 无遮挡一级毛片| 在线精品小视频| 亚洲国产人久久久成人精品网站| 欧美一级高清免费a| 欧美一级视频在线高清观看| 一级做a爱免费观看视频| 国产成人精品日本亚洲语言| 在线h网站| 欧美在线免费| 久久人人爽爽爽人久久久| 一级毛片aa| 六月婷婷导航福利在线| 国内精品第一页| 深爱激情小说网| 视频综合网| 午夜色片| 天天摸天天看天天做天天爽| h版欧美一区二区三区四区| 国产一级特黄高清在线大片| 欧美熟色妇| 久久免费特黄毛片| 视频网站免费|