針對(duì)如何幫助全球開發(fā)者獲取優(yōu)質(zhì)代碼輔助工具,谷歌近來發(fā)布新型 CodeGemma 先進(jìn)大語言模型(LLMs)以期實(shí)現(xiàn)這一愿景。
這款新品是基于 Gemma 模型推出的開源版,經(jīng)過深度優(yōu)化及精細(xì)調(diào)整,專攻代碼開發(fā)領(lǐng)域。其有三種類型的模型供選擇:
20 億參數(shù)的基本模型:以優(yōu)化彌補(bǔ)以及生成代碼為主,追求速度與保密性的平衡,呈獻(xiàn)給我們高速而有效的代碼處理方式;
70 億參數(shù)基本模型:融入代碼彌補(bǔ)與自然語言處理技術(shù),提升了代碼完成效率和語言生成識(shí)別技能;
70 億參數(shù)模型:此款模型立足于指導(dǎo)追蹤,響應(yīng)開發(fā)者對(duì)于對(duì)問題求解或者注釋渴求。
此外,CodeGemma 還充分運(yùn)用了預(yù)設(shè)的 Gemma 檢查點(diǎn)并訓(xùn)練了超過 50000 億個(gè)英語、數(shù)學(xué)以及各類編碼語言詞匯塊,其卓越的邏輯和數(shù)學(xué)推理性能,成為了代碼生成與完成的新標(biāo)準(zhǔn)。
值得一提的是,70 億參數(shù)模型在眾多編程語言如Python、Java、JavaScript及C++中的表現(xiàn)都堪稱優(yōu)秀。HumanEval及MultiPL-E標(biāo)尺測(cè)驗(yàn)以及GSM8K評(píng)估驗(yàn)證了這一事實(shí),且進(jìn)一步展示了其卓越的功能便利性和效用價(jià)值。
-
谷歌
+關(guān)注
關(guān)注
27文章
6168瀏覽量
105394 -
語言模型
+關(guān)注
關(guān)注
0文章
524瀏覽量
10277 -
python
+關(guān)注
關(guān)注
56文章
4797瀏覽量
84693
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論