在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

大模型現存的10個問題和挑戰

穎脈Imgtec ? 2023-09-04 16:42 ? 次閱讀

大模型現存的問題和挑戰這篇文章介紹了關于大型語言模型(LLMs)研究中的十個主要方向和問題:

1. 減少和度量幻覺:幻覺指的是AI模型虛構信息的情況,可能是創意應用的一個特點,但在其他應用中可能是一個問題。這個方向涉及減少幻覺和開發衡量幻覺的度量標準。

2. 優化上下文長度和構造:針對大多數問題,上下文信息是必需的,文章介紹了在RAG(Retrieval Augmented Generation)架構中優化上下文長度和構造的重要性。

3. 整合其他數據形式:多模態是強大且被低估的領域,文章探討了多模態數據的重要性和潛在應用,如醫療預測、產品元數據分析等。

4. 使LLMs更快、更便宜:討論了如何使LLMs更高效、更節約資源,例如通過模型量化、模型壓縮等方法。

5. 設計新的模型架構:介紹了開發新的模型架構以取代Transformer的嘗試,以及挑戰和優勢。

6. 開發GPU替代方案:討論了針對深度學習的新硬件技術,如TPUs、IPUs、量子計算、光子芯片等。

7. 使代理人更易用:探討了訓練能夠執行動作的LLMs,即代理人,以及其在社會研究和其他領域的應用。

8. 提高從人類偏好中學習的效率:討論了從人類偏好中訓練LLMs的方法和挑戰。

9. 改進聊天界面的效率:討論了聊天界面在任務處理中的適用性和改進方法,包括多消息、多模態輸入、引入生成AI等。

10. 為非英語語言構建LLMs:介紹了將LLMs擴展到非英語語言的挑戰和必要性。


1. 減少和衡量幻覺

幻覺是一個廣受關注的話題,指的是當AI模型編造信息時發生的情況。在許多創造性的應用場景中,幻覺是一種特性。然而,在大多數其他用例中,幻覺是一個缺陷。一些大型企業近期在關于大型語言模型的面板上表示,影響企業采用LLMs的主要障礙是幻覺問題。

減輕幻覺問題并開發用于衡量幻覺的度量標準是一個蓬勃發展的研究課題。有許多初創公司專注于解決這個問題。還有一些降低幻覺的方法,例如在提示中添加更多的上下文、思維鏈、自我一致性,或要求模型在回答中保持簡潔。

要了解更多關于幻覺的信息,可以參考以下文獻:

  • Survey of Hallucination in Natural Language Generation (Ji et al., 2022)
  • How Language Model Hallucinations Can Snowball (Zhang et al., 2023)
  • A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on Reasoning, Hallucination, and Interactivity (Bang et al., 2023)
  • Contrastive Learning Reduces Hallucination in Conversations (Sun et al., 2022)
  • Self-Consistency Improves Chain of Thought Reasoning in Language Models (Wang et al., 2022)
  • SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for Generative Large Language Models (Manakul et al., 2023)
  • NVIDIA’s NeMo-Guardrails中關于事實核查和幻覺的簡單示例

2. 優化上下文長度限制

大部分問題需要上下文信息。例如,如果我們詢問ChatGPT:“哪家越南餐廳最好?”,所需的上下文將是“在哪里”,因為越南在越南和美國的最佳越南餐廳不同。

在這篇論文中提到,許多信息尋求性的問題都有依賴于上下文的答案,例如Natural Questions NQ-Open數據集中約占16.5%。對于企業用例,這個比例可能會更高。例如,如果一家公司為客戶支持構建了一個聊天機器人,為了回答客戶關于任何產品的問題,所需的上下文可能是該客戶的歷史或該產品的信息。由于模型“學習”來自提供給它的上下文,這個過程也被稱為上下文學習。


3. 合并其他數據模態

多模態是非常強大但常常被低估的概念。它具有許多優點:

首先,許多用例需要多模態數據,特別是在涉及多種數據模態的行業,如醫療保健、機器人、電子商務、零售、游戲、娛樂等。例如,醫學預測常常需要文本(如醫生的筆記、患者的問卷)和圖像(如CT、X射線、MRI掃描)。

ec690f84-4afe-11ee-a20b-92fbcf53809c.png

其次,多模態承諾可以顯著提高模型的性能。一個能夠理解文本和圖像的模型應該比只能理解文本的模型表現更好。基于文本的模型需要大量的文本數據,因此有現實擔憂稱我們可能會很快用完訓練基于文本的模型的互聯網數據。一旦我們用完了文本數據,我們需要利用其他數據模態。

其中一個特別令人興奮的用例是,多模態可以幫助視障人士瀏覽互聯網和導航現實世界。


4. 使LLMs更快且更便宜

當GPT-3.5于2022年底首次發布時,很多人對在生產中使用它的延遲和成本表示擔憂。這是一個復雜的問題,牽涉到多個層面,例如:

訓練成本:訓練LLMs的成本隨著模型規模的增大而增加。目前,訓練一個大型的LLM可能需要數百萬美元。

推理成本:在生產中使用LLMs的推理(生成)可能會帶來相當高的成本,這主要是因為這些模型的巨大規模。

ec93134c-4afe-11ee-a20b-92fbcf53809c.png

解決這個問題的一種方法是研究如何減少LLMs的大小,而不會明顯降低性能。這是一個雙重的優勢:首先,更小的模型需要更少的成本來進行推理;其次,更小的模型也需要更少的計算資源來進行訓練。這可以通過模型壓縮(例如蒸餾)或者采用更輕量級的架構來實現。


5. 設計新的模型架構

盡管Transformer架構在自然語言處理領域取得了巨大成功,但它并不是唯一的選擇。近年來,研究人員一直在探索新的模型架構,試圖超越Transformer的限制。

這包括設計更適用于特定任務或問題的模型,以及從根本上重新考慮自然語言處理的基本原理。一些方向包括使用圖神經網絡、因果推理架構、迭代計算模型等等。eca7cd82-4afe-11ee-a20b-92fbcf53809c.png

新的架構可能會在性能、訓練效率、推理速度等方面帶來改進,但也需要更多的研究和實驗來驗證其實際效果。


6. 開發GPU替代方案

當前,大多數深度學習任務使用GPU來進行訓練和推理。然而,隨著模型規模的不斷增大,GPU可能會遇到性能瓶頸,也可能無法滿足能效方面的要求。

因此,研究人員正在探索各種GPU替代方案,例如:

TPUs(張量處理器):由Google開發的專用深度學習硬件,專為加速TensorFlow等深度學習框架而設計。

IPUs(智能處理器):由Graphcore開發的硬件,旨在提供高度并行的計算能力以加速深度學習模型。

量子計算:盡管仍處于實驗階段,但量子計算可能在未來成為處理復雜計算任務的一種有效方法。

光子芯片:使用光學技術進行計算,可能在某些情況下提供更高的計算速度。

這些替代方案都有其獨特的優勢和挑戰,需要進一步的研究和發展才能實現廣泛應用。


7. 使代理人更易于使用

研究人員正在努力開發能夠執行動作的LLMs,也被稱為代理人。代理人可以通過自然語言指令進行操作,這在社會研究、可交互應用等領域具有巨大潛力。

然而,使代理人更易于使用涉及到許多挑戰。這包括:

指令理解和執行:確保代理人能夠準確理解和執行用戶的指令,避免誤解和錯誤。

多模態交互:使代理人能夠在不同的輸入模態(文本、語音、圖像等)下進行交互。

個性化和用戶適應:使代理人能夠根據用戶的個性、偏好和歷史進行適應和個性化的交互。

這個方向的研究不僅涉及到自然語言處理,還涉及到機器人學、人機交互等多個領域。


8. 提高從人類偏好中學習的效率

從人類偏好中學習是一種訓練LLMs的方法,其中模型會根據人類專家或用戶提供的偏好進行學習。然而,這個過程可能會面臨一些挑戰,例如:

數據采集成本:從人類偏好中學習需要大量的人類專家或用戶提供的標注數據,這可能會非常昂貴和耗時。

標注噪聲:由于人類標注的主觀性和誤差,數據中可能存在噪聲,這可能會影響模型的性能。

領域特異性:從人類偏好中學習的模型可能會在不同領域之間表現不佳,因為偏好可能因領域而異。

研究人員正在探索如何在從人類偏好中學習時提高效率和性能,例如使用主動學習、遷移學習、半監督學習等方法。


9. 改進聊天界面的效率

聊天界面是LLMs與用戶交互的方式之一,但目前仍然存在一些效率和可用性方面的問題。例如:

多消息對話:在多輪對話中,模型可能會遺忘之前的上下文,導致交流不連貫。

多模態輸入:用戶可能會在消息中混合文本、圖像、聲音等不同模態的信息,模型需要適應處理這些多樣的輸入。

對話歷史和上下文管理:在長時間對話中,模型需要有效地管理對話歷史和上下文,以便準確回應用戶的問題和指令。

改進聊天界面的效率和用戶體驗是一個重要的研究方向,涉及到自然語言處理、人機交互和設計等多個領域的知識。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    30887

    瀏覽量

    269070
  • 人工智能
    +關注

    關注

    1791

    文章

    47274

    瀏覽量

    238469
  • 模型
    +關注

    關注

    1

    文章

    3243

    瀏覽量

    48836
收藏 人收藏

    評論

    相關推薦

    【「大模型啟示錄」閱讀體驗】對大模型更深入的認知

    閱讀《大模型啟示錄》這本書,我得說,它徹底顛覆了我對大模型的理解。作為一經常用KIMI和豆包這類AI工具來完成作業、整理資料的大學生,我原以為大模型就是這些工具背后的技術。但這本書讓
    發表于 12-20 15:46

    使用vLLM+OpenVINO加速大語言模型推理

    隨著大語言模型的廣泛應用,模型的計算需求大幅提升,帶來推理時延高、資源消耗大等挑戰
    的頭像 發表于 11-15 14:20 ?398次閱讀
    使用vLLM+OpenVINO加速大語言<b class='flag-5'>模型</b>推理

    高效大模型的推理綜述

    模型由于其在各種任務中的出色表現而引起了廣泛的關注。然而,大模型推理的大量計算和內存需求對其在資源受限場景的部署提出了挑戰。業內一直在努力開發旨在提高大模型推理效率的技術。本文對現有
    的頭像 發表于 11-15 11:45 ?375次閱讀
    高效大<b class='flag-5'>模型</b>的推理綜述

    國產大模型發展的經驗與教訓

    ? ? 本文介紹大模型的計算特征(國產平臺介紹、系統挑戰、算子實現、容錯)、框架的并行性支持、未來算法等。 隨著ChatGPT的橫空出世,人工智能大模型成為各行各業熱議的焦點,國內外各種大模型
    的頭像 發表于 11-11 11:39 ?248次閱讀
    國產大<b class='flag-5'>模型</b>發展的經驗與教訓

    當前主流的大模型對于底層推理芯片提出了哪些挑戰

    隨著大模型時代的到來,AI算力逐漸變成重要的戰略資源,對現有AI芯片也提出了前所未有的挑戰:大算力的需求、高吞吐量與低延時、高效內存管理、能耗等等。
    的頭像 發表于 09-24 16:57 ?652次閱讀

    模型發展下,國產GPU的機會和挑戰

    電子發燒友網站提供《大模型發展下,國產GPU的機會和挑戰.pdf》資料免費下載
    發表于 07-18 15:44 ?10次下載
    大<b class='flag-5'>模型</b>發展下,國產GPU的機會和<b class='flag-5'>挑戰</b>

    在PyTorch中搭建一最簡單的模型

    在PyTorch中搭建一最簡單的模型通常涉及幾個關鍵步驟:定義模型結構、加載數據、設置損失函數和優化器,以及進行模型訓練和評估。
    的頭像 發表于 07-16 18:09 ?1995次閱讀

    AI大模型的發展歷程和應用前景

    領域取得重要突破。本文將深入解析AI大模型的基本原理、發展歷程、應用前景以及面臨的挑戰與爭議,為讀者提供一全面而深入的科普視角。
    的頭像 發表于 07-03 18:20 ?1166次閱讀

    模型發展下,國產GPU的機會和挑戰(上)

    洞見分析經驗分享模型
    電子發燒友網官方
    發布于 :2024年06月11日 16:51:11

    助聽器降噪神經網絡模型

    在堆棧網絡方法中,參數少于一百萬。該模型使用挑戰組織者提供的 500 小時的嘈雜語音進行訓練。 該網絡能夠進行實時處理(一幀輸入,一幀輸 出)并達到有競爭力的結果。將這兩種類型的信號變換結合起來,使
    發表于 05-11 17:15

    【大語言模型:原理與工程實踐】大語言模型的應用

    能力,它缺乏真正的“思考”過程。對于任何輸入,大語言模型都會產生輸出,但這僅僅是基于計算和預測下一Token出現的概率。模型并不清楚自己的優勢或劣勢,也無法主動進行反思和糾正錯誤。提示工程
    發表于 05-07 17:21

    【大語言模型:原理與工程實踐】大語言模型的評測

    安全性的評測則關注模型在強化學習階段的表現。行業模型的評測則針對特定行業的能力,如金融和法律等領域。整體能力的評測從宏觀角度評估模型作為一通用人工智能的綜合能力。這些評測方法和基準的
    發表于 05-07 17:12

    【大語言模型:原理與工程實踐】探索《大語言模型原理與工程實踐》

    處理中預訓練架構Transformer,以及這些技術在現實世界中的如何應用。通過具體案例的分析,作者展示了大語言模型在解決實際問題中的強大能力,同時也指出了當前技術面臨的挑戰和局限性。書中對大語言模型
    發表于 04-30 15:35

    工業大模型的五基本問題

    工業業大模型是大模型為賦能工業應用所產生的產業新形態,是制造業數字化轉型3.0的重要載體,是一新質體。
    發表于 04-23 16:04 ?713次閱讀
    工業大<b class='flag-5'>模型</b>的五<b class='flag-5'>個</b>基本問題

    模型時代,國產GPU面臨哪些挑戰

    ,國產GPU在不斷成長的過程中也存在諸多挑戰。 ? 在大模型訓練上存在差距 ? 大語言模型是基于深度學習的技術。這些模型通過在海量文本數據上的訓練,學習語言的語法、語境和語義等多層次的
    的頭像 發表于 04-03 01:08 ?4669次閱讀
    大<b class='flag-5'>模型</b>時代,國產GPU面臨哪些<b class='flag-5'>挑戰</b>
    主站蜘蛛池模板: 国产成人精品高清免费| 性欧美高清久久久久久久| 迅雷www天堂在线资源| 欧美大片一区| 午夜精品在线| 69xxxxtube日本免费| 特级毛片aaaaaa蜜桃| 欧美猛交xxx呻吟| 亚洲一级毛片免费在线观看| 免费一级毛毛片| 天天看片天天干| 中文字幕亚洲色图| 日本三级视频在线| 亚洲大黑香蕉在线观看75| caoporn97人人做人人爱最新| 四虎影院免费观看| 99久久99久久免费精品蜜桃| 欧美猛交xxxx免费看| 色噜噜狠狠色综合欧洲selulu| www.激情网.com| 分分精品| 欧美激情综合| 美女牲交视频一级毛片| 99久久精品免费观看国产| 亚洲ay| 国产女人在线观看| 2021国产成人精品久久| 网站色| 午夜高清在线| 美女扒开尿囗给男生桶爽| 经典三级第一页| 国产大片黄在线观看| 四虎影院最新地址| 天天综合在线视频| 4338×亚洲全国最大色成网站| 国产一级特黄| 免费啪啪网站| 免费在线看a| 国产精品久久久久久久免费| 天天舔天天摸| 天天综合视频网|