9月7日,騰訊正式發布自主研究通用語言模式“混元”。這一大型模型擁有超過一千億個參數規模、超過兩萬億的tokens訓練過的語言資料、強大的漢語創作能力、復雜語言環境下的邏輯推理能力、可靠的業務執行能力。
根據官方說法,與chatgpt-3.5/4.0相比,混元大模型“幻覺”現象發生概率可減少30%-50%,同時也減少了與創作無關的描寫。另外,對于安全誘導問題,可以將拒絕率提高20個百分點。
它還提供了長時間的文本生成功能,可以與插件結合生成4000個字符。產品具有更強的邏輯推理能力,可以結合實際場面進行推理決定。
騰訊表示,混元大模型已經對公司內部50多種產品和業務進行了內部測試。騰訊會議,騰訊文件,騰訊廣告產品可以進入這個大模型。
當天,騰訊宣布,騰訊混元大模型也將通過騰訊云正式對外開放。用戶可以直接調用api接口,或者使用混元作為基本模型,在公共云端進行精確的調整。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
騰訊
+關注
關注
7文章
1656瀏覽量
49463 -
ChatGPT
+關注
關注
29文章
1563瀏覽量
7743 -
大模型
+關注
關注
2文章
2474瀏覽量
2774
發布評論請先 登錄
相關推薦
騰訊混元大模型開源成績斐然,GitHub Star數近1.4萬
內外部技術的開源共享,旨在促進技術創新與生態發展。 據悉,騰訊混元大模型已經在多個模態上實現了開源,包括語言大
騰訊混元文生圖登頂智源FlagEval評測榜首
近日,北京智源人工智能研究院(BAAI)發布了最新的FlagEval大模型評測排行榜,其中多模態模型評測榜單的文生圖模型引起了廣泛關注。結果顯示,騰
騰訊發布開源MoE大語言模型Hunyuan-Large
近日,騰訊公司宣布成功推出業界領先的開源MoE(Mixture of Experts,專家混合)大語言模型——Hunyuan-Large。這款模型不僅在
騰訊云推出全新大模型定價策略:免費并降低API費用
他進一步表示,盡管傳統搜索引擎已相當出色,但大模型卻能使其更上一層樓。自去年9月騰訊推出大模型產品以來,模型效率已提升50%,參數
通義千問開源千億級參數模型
通義千問近日開源了其首個千億級參數模型Qwen1.5-110B,這是其全系列中首個達到千億級別的開源模型。Qwen1.5-110B模型繼承了
【大語言模型:原理與工程實踐】大語言模型的基礎技術
處理各種自然語言任務時都表現出了驚人的能力。這促使一個新的研究方向誕生——基于Transformer 的預訓練語言模型。這類模型的核心思想是先利用大
發表于 05-05 12:17
【大語言模型:原理與工程實踐】揭開大語言模型的面紗
維基百科、網頁內容和書籍等,不僅掌握了語言的語法、語義和上下文信息,還能生成結構連貫、語義合理的句子和段落。大語言模型的一個顯著特點是其龐大的參數量,已達數億甚至數十億級別。這種
發表于 05-04 23:55
名單公布!【書籍評測活動NO.30】大規模語言模型:從理論到實踐
一階段訓練的獎勵模型,對有監督微調模型對用戶提示詞補全結果的質量進行評估,與語言模型建模目標綜合得到更好的效果。這一階段的難點在于解決強化學習方法穩定性不高、
發表于 03-11 15:16
評論