在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

單日獲客成本超20萬(wàn),國(guó)產(chǎn)大模型開(kāi)卷200萬(wàn)字以上的長(zhǎng)文本處理

E4Life ? 來(lái)源:電子發(fā)燒友 ? 作者:周凱揚(yáng) ? 2024-03-27 00:53 ? 次閱讀

電子發(fā)燒友網(wǎng)報(bào)道(文/周凱揚(yáng))隨著AGI生態(tài)的蓬勃發(fā)展,各種支持多模態(tài)的大模型推陳出新,比如最近比較火的音樂(lè)大模型Suno和文生視頻大模型Sora等等。然而在傳統(tǒng)基于文本的大語(yǔ)言模型上,除了追求更快更精準(zhǔn)的推理和高并發(fā)流量以外,似乎已經(jīng)沒(méi)有太多值得廠商大肆宣傳的特性了,直到最近超長(zhǎng)文本處理的爆火。

國(guó)產(chǎn)大模型的新卷法,長(zhǎng)文本處理

當(dāng)下將大模型長(zhǎng)文本處理炒熱的,無(wú)疑是來(lái)自月之暗面的Kimi。作為去年發(fā)布的大模型,Kimi的主要賣(mài)點(diǎn)就是長(zhǎng)文本,當(dāng)時(shí)發(fā)布的初版Kimi,就已經(jīng)支持到最多20萬(wàn)漢字的輸入處理。

然而僅僅20萬(wàn)字的文本處理,還不至于給用戶帶來(lái)質(zhì)變的交互體驗(yàn),畢竟GPT-4 Turbo-128k已經(jīng)支持到約合10萬(wàn)漢字的長(zhǎng)文本處理,谷歌的Gemini pro也支持到最多70萬(wàn)個(gè)單詞的上下文,但不少長(zhǎng)篇小說(shuō)、專業(yè)書(shū)籍的字?jǐn)?shù)要遠(yuǎn)超這一數(shù)字。

wKgZomYCneCAMb8qAAM8v3nPbSs784.jpg
Kimi支持200萬(wàn)字上下文 / 月之暗面

Kimi在最近爆火源于一項(xiàng)重大迭代升級(jí),月之暗面將長(zhǎng)文本處理的字?jǐn)?shù)限制擴(kuò)展到200萬(wàn)字,遠(yuǎn)超Claude3、GPT-4 Turbo和Gemini Pro模型。在新功能推出和有效推廣下,Kimi很快涌入了一大批用戶,其app甚至短暫地沖進(jìn)了蘋(píng)果App Store前五的位置。然而這樣也對(duì)Kimi的運(yùn)營(yíng)造成了不小的壓力,Kimi在上周經(jīng)歷了多次宕機(jī),這還是在月之暗面對(duì)服務(wù)器連續(xù)擴(kuò)容的前提下。

面對(duì)競(jìng)爭(zhēng)對(duì)手Kimi的用戶量激增,阿里巴巴和360很快就坐不住了。3月22日,阿里巴巴宣布通義千問(wèn)將向所有用戶免費(fèi)開(kāi)放1000萬(wàn)字的長(zhǎng)文檔處理功能;3月23日,360智腦宣布正式內(nèi)測(cè)500萬(wàn)字長(zhǎng)文本處理功能,且該功能即將入駐360 AI瀏覽器。

除了阿里巴巴和360外,目前國(guó)內(nèi)訪問(wèn)量第一的百度文心一言據(jù)傳也會(huì)在下月開(kāi)放長(zhǎng)文本處理功能,并計(jì)劃把字?jǐn)?shù)上限提高至200萬(wàn)甚至500萬(wàn)字。

超長(zhǎng)文本實(shí)現(xiàn)的技術(shù)難點(diǎn)和商業(yè)桎梏

盡管在用戶看來(lái),阿里巴巴、360等廠商宣布支持超長(zhǎng)文本處理好像是一件無(wú)需多少時(shí)間的易事,但實(shí)際上超長(zhǎng)文本處理的實(shí)現(xiàn)存在不少技術(shù)痛點(diǎn)和商業(yè)成本問(wèn)題。要知道在2022年,絕大多數(shù)的LLM上下文長(zhǎng)度最多也只有2K,比如GPT-3。

直到GPT-4和Claude 2等,這些大模型才從架構(gòu)上對(duì)文本長(zhǎng)度進(jìn)行了優(yōu)化,可即便如此,主流的文本輸入長(zhǎng)度依然不會(huì)超過(guò)100K。這也是因?yàn)閷?duì)部分大模型而言,長(zhǎng)文本不一定代表著更好的使用體驗(yàn),尤其是在查全率和準(zhǔn)確率上。

wKgaomYCne6ABP4QAADkljohAv4132.png
Claude的上下文長(zhǎng)度和召回率關(guān)聯(lián)圖 / Anthropic


以Anthropic給出的數(shù)據(jù)為例,從上圖可以看出,隨著文本長(zhǎng)度的增加,召回率是在逐步降低的,即便是最新的Claude3也是如此,而召回率代表了檢索出相關(guān)信息量占總量的比率。至于精確度,則與上下文中的事實(shí)位置存在很大的關(guān)系,如果用戶問(wèn)題的事實(shí)存在于文本開(kāi)頭或后半部分的位置,那么更容易得到精確的結(jié)果,而位于10%到50%之間位置的文本,則精確度急劇下降。

除此之外,長(zhǎng)文本對(duì)于GPU和內(nèi)存的資源消耗太大了,即便是小規(guī)模地?cái)U(kuò)展文本長(zhǎng)度,動(dòng)輒也要消耗100塊以上的GPU或TPU,這里指代的GPU還是A100這種單卡顯存容量高達(dá)40GB或80GB的設(shè)備。

這也是Kimi在經(jīng)歷大量用戶訪問(wèn)后,需要緊急擴(kuò)容的原因。而阿里巴巴之所以能這么快開(kāi)放長(zhǎng)文本能力,也是憑借著手握龐大的服務(wù)器資源。至于Anthropic,我們從Claude3 Opus高昂的Tokens價(jià)格,也可以猜到其硬件成本絕對(duì)不低。

另外,在持續(xù)火爆一年之后,目前的大模型應(yīng)用也難以單純靠技術(shù)立足市場(chǎng)吸引用戶了,商業(yè)推廣也已經(jīng)成了必行之路。就以Kimi為例,在社交媒體上有關(guān)該應(yīng)用的推廣可謂鋪天蓋地,很明顯對(duì)于新興的大模型應(yīng)用而言,收獲第一批用戶才是至關(guān)重要的。

據(jù)傳Kimi在廣告投放上,吸引每位新用戶的花費(fèi)在10元左右,而新用戶參與到使用中帶來(lái)的額外算力開(kāi)銷在12元至13元左右。如果單單只是根據(jù)手機(jī)平臺(tái)app的下載量計(jì)算,那么Kimi的每日獲客成本至少為20萬(wàn)人民幣,而這還未計(jì)算來(lái)自網(wǎng)頁(yè)端和小程序端的用戶。

wKgZomYCnf2AOjdbAADS5hsoY5M413.png
AI產(chǎn)品國(guó)內(nèi)總榜 / AI產(chǎn)品榜


而且Kimi的推廣也不是從200萬(wàn)長(zhǎng)文本功能的推出才開(kāi)始的,早在二月份Kimi就開(kāi)始以長(zhǎng)文本這一特性加強(qiáng)商業(yè)推廣了。從AI產(chǎn)品榜中可以看出,Kimi在2月的訪問(wèn)量飆升,在國(guó)內(nèi)總榜中僅次于百度文心一言和阿里通義千問(wèn),足見(jiàn)其在商業(yè)推廣和產(chǎn)品運(yùn)營(yíng)上都下了血本。但相對(duì)ChatGPT和New Bing之類的應(yīng)用而言,其訪問(wèn)量還是存在很大的差距。

這也充分說(shuō)明了為何國(guó)外的大模型應(yīng)用沒(méi)有去卷200K以上文本長(zhǎng)度的原因,目前算力、準(zhǔn)確度和長(zhǎng)文本之間的沖突限制了他們?nèi)グl(fā)展長(zhǎng)文本。但這對(duì)于中國(guó)的大模型應(yīng)用來(lái)說(shuō),反而是一個(gè)彎道超車的機(jī)會(huì),因?yàn)榇竽P蜕系拈L(zhǎng)文本能力確實(shí)帶來(lái)了用戶體驗(yàn)上的改變。

長(zhǎng)文本對(duì)于用戶體驗(yàn)的改變

國(guó)產(chǎn)大模型為什么要去卷長(zhǎng)文本,這是一個(gè)與大模型應(yīng)用落地息息相關(guān)的問(wèn)題。在過(guò)去,正是由于長(zhǎng)文本能力不足,絕大多數(shù)大模型應(yīng)用才會(huì)給人不堪大用的感覺(jué),比如虛擬助手由于長(zhǎng)文本能力不足,會(huì)遺忘重要信息;基于大模型來(lái)設(shè)計(jì)劇本殺等游戲規(guī)則時(shí),上下文長(zhǎng)度不夠只能在規(guī)則和設(shè)定上縮水,從而簡(jiǎn)化游戲難度;在論文分析和法律法規(guī)解讀這樣的關(guān)鍵領(lǐng)域,更是因?yàn)槿狈﹂L(zhǎng)文本的支持,無(wú)法給到用戶精準(zhǔn)的答案。

這與大模型卷參數(shù)規(guī)模不同,因?yàn)橛脩粢呀?jīng)發(fā)現(xiàn)了即便是70B這個(gè)量級(jí)的大模型,在面對(duì)用戶的問(wèn)題時(shí),也會(huì)出現(xiàn)胡編亂造的問(wèn)題。反倒是長(zhǎng)文本提供了更多的上下文信息,大模型在對(duì)語(yǔ)義進(jìn)行分析判斷后,會(huì)提供更加精確的答案,所以不少用戶才會(huì)借助Kimi來(lái)分解長(zhǎng)篇小說(shuō)、總結(jié)論文等。

不過(guò)在享受長(zhǎng)文本處理帶來(lái)便利的同時(shí),我們也應(yīng)該注意下長(zhǎng)文本處理背后潛在的信息安全和版權(quán)問(wèn)題。對(duì)于過(guò)去短文本的處理,就已經(jīng)存在一些可能暴露用戶真實(shí)身份和隱私信息的問(wèn)題,隨著長(zhǎng)文本支持對(duì)于更大文件和更長(zhǎng)文本的處理,有的人可能會(huì)選擇將合同、條例或標(biāo)準(zhǔn)等包含敏感信息的專業(yè)文件上傳到大模型上,又或是引入一些盜版文檔資源。

所以國(guó)家層面也開(kāi)始出臺(tái)各種管理辦法,對(duì)于大模型語(yǔ)言模型在內(nèi)的生成式人工智能進(jìn)行規(guī)范,不能侵犯知識(shí)產(chǎn)權(quán)并保護(hù)個(gè)人隱私。如此一來(lái),對(duì)于大模型應(yīng)用本身的信息脫敏也提出了更高的要求。

寫(xiě)在最后

相信經(jīng)過(guò)一年的大模型應(yīng)用轟炸后,不少用戶對(duì)于基本的AGI玩法已經(jīng)玩膩了,所以長(zhǎng)文本、文生視頻這種新的交互方式才會(huì)讓人趨之若鶩。但我們也很少看到成功的長(zhǎng)文本大模型商業(yè)化落地項(xiàng)目,畢竟在高額的獲客成本下,RAG這種外掛知識(shí)庫(kù)的方式可能更適合手中資金有限的初創(chuàng)AGI應(yīng)用開(kāi)發(fā)商。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Agi
    Agi
    +關(guān)注

    關(guān)注

    0

    文章

    80

    瀏覽量

    10207
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2450

    瀏覽量

    2707
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    288

    瀏覽量

    335
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Linux三劍之Sed:文本處理神器

    關(guān)于linux三劍 grep,過(guò)濾關(guān)鍵信息數(shù)據(jù)。主要是用于查文本內(nèi)的數(shù)據(jù) sed ,對(duì)文本數(shù)據(jù)進(jìn)行編輯,修改原文件內(nèi)容 awk,對(duì)文件數(shù)據(jù)過(guò)濾,提取,并且能實(shí)現(xiàn),格式化輸出 awk
    的頭像 發(fā)表于 12-16 15:58 ?224次閱讀
    Linux三劍<b class='flag-5'>客</b>之Sed:<b class='flag-5'>文本處理</b>神器

    如何掌握Linux文本處理

    /from/sed_script: 從指定的文本中讀取處理腳本 -r: 使用擴(kuò)展正則表達(dá)式 sed命令選項(xiàng) 替換標(biāo)記 g:表示行內(nèi)全面替換 w:表示把行寫(xiě)入一個(gè)文件 x:表示互換模式
    的頭像 發(fā)表于 11-10 13:40 ?174次閱讀

    Llama 3 模型與其他AI工具對(duì)比

    、技術(shù)架構(gòu) Llama 3模型 采用了最新的Transformer架構(gòu),并結(jié)合了自注意力機(jī)制和分組查詢關(guān)注(GQA)機(jī)制。 引入了高效的tokenizer和RoPE位置編碼,提高了語(yǔ)言編碼和長(zhǎng)文本處理
    的頭像 發(fā)表于 10-27 14:37 ?389次閱讀

    商湯大模型開(kāi)“卷”長(zhǎng)文本,支持100萬(wàn)字處理

    知情者透露,此次升級(jí)的日日新大模型還具備跨平臺(tái)操作特性,在Web和App端都可以使用。App端更是新增了粵語(yǔ)口語(yǔ)語(yǔ)音對(duì)話功能,進(jìn)一步提升了模型對(duì)粵語(yǔ)及香港本土文化的理解。
    的頭像 發(fā)表于 05-29 11:43 ?412次閱讀

    MiniMax推出“海螺AI”,支持超長(zhǎng)文本處理

    近日,大模型公司MiniMax宣布,其全新產(chǎn)品“海螺AI”已正式上架。這款強(qiáng)大的AI工具支持高達(dá)200ktokens的上下文長(zhǎng)度,能夠在1秒內(nèi)處理近3萬(wàn)字
    的頭像 發(fā)表于 05-17 09:30 ?745次閱讀

    訊飛星火長(zhǎng)文本功能全新升級(jí)

    科大訊飛近日宣布,其首個(gè)長(zhǎng)文本、長(zhǎng)圖文、長(zhǎng)語(yǔ)音大模型已完成全新升級(jí)。這一大模型不僅具備強(qiáng)大的學(xué)習(xí)能力,可以快速吸收海量文本、圖文資料以及會(huì)議錄音等多元化信息,更能在各行業(yè)場(chǎng)景中提供精準(zhǔn)
    的頭像 發(fā)表于 05-06 11:22 ?557次閱讀

    科大訊飛創(chuàng)新推出長(zhǎng)文本、長(zhǎng)圖文、長(zhǎng)語(yǔ)音大模型,解決落地難題

    近期,科大訊飛推出了首個(gè)支持長(zhǎng)文本、長(zhǎng)圖及語(yǔ)音大數(shù)據(jù)處理的大模型,該系統(tǒng)融合了多元化數(shù)據(jù)源,包括海量文字、圖片以及會(huì)議音頻等,能為各行業(yè)場(chǎng)景提供專業(yè)化、精準(zhǔn)化的答案。
    的頭像 發(fā)表于 04-28 09:32 ?374次閱讀

    訊飛星火大模型V3.5春季升級(jí),多領(lǐng)域知識(shí)問(wèn)答超越GPT-4 Turbo?

    劉慶峰指出,現(xiàn)如今,星火大模型在通用長(zhǎng)文本處理能力方面已相當(dāng)成熟,覆蓋長(zhǎng)文檔信息抽取、知識(shí)問(wèn)答、歸納總結(jié)、文本生成等諸多領(lǐng)域,整體表現(xiàn)已達(dá)GPT-4 Turbo今年4月最新版的97%水
    的頭像 發(fā)表于 04-26 14:26 ?1058次閱讀

    AI初創(chuàng)企業(yè)推MoE混合專家模型架構(gòu)新品abab 6.5

    losoev 6.5s:與 losoev 6.5 共享相同的訓(xùn)練技術(shù)和數(shù)據(jù),但效率更高,同樣支持 200k tokens 的上下文長(zhǎng)度,且能夠在 1 秒鐘內(nèi)處理近 3 萬(wàn)字文本
    的頭像 發(fā)表于 04-17 15:06 ?510次閱讀

    Kimi爆火背后的技術(shù)奧秘 大模型長(zhǎng)文本能力的技術(shù)難點(diǎn)

    當(dāng)用戶認(rèn)為在國(guó)內(nèi)的大模型中,長(zhǎng)文本=kimi的時(shí)候,除非競(jìng)爭(zhēng)對(duì)手能以絕對(duì)的實(shí)力碾壓幾個(gè)量級(jí),但凡與kimi打平或者是微弱超越,都很難威脅到kimi在用戶心目中的地位。
    發(fā)表于 04-17 10:11 ?1251次閱讀
    Kimi爆火背后的技術(shù)奧秘 大<b class='flag-5'>模型</b><b class='flag-5'>長(zhǎng)文本</b>能力的技術(shù)難點(diǎn)

    360開(kāi)源70億參數(shù)模型,助力360k長(zhǎng)文本輸入

    周鴻祎指出,近期大模型產(chǎn)業(yè)正在以數(shù)據(jù)量為競(jìng)爭(zhēng)重點(diǎn),百萬(wàn)字文本處理能力“有望成為未來(lái)標(biāo)配”。他表示,360決定發(fā)布這項(xiàng)功能,以避免相關(guān)行業(yè)研發(fā)者重復(fù)投入精力,同時(shí)360K作為長(zhǎng)度單位也是象征性的選擇。
    的頭像 發(fā)表于 03-29 15:54 ?408次閱讀

    阿里通義千問(wèn)重磅升級(jí),免費(fèi)開(kāi)放1000萬(wàn)字長(zhǎng)文處理功能

    近日,阿里巴巴旗下的人工智能應(yīng)用通義千問(wèn)迎來(lái)重磅升級(jí),宣布向所有人免費(fèi)開(kāi)放1000萬(wàn)字長(zhǎng)文處理功能,這一創(chuàng)新舉措使得通義千問(wèn)成為全球文檔處理容量第一的AI應(yīng)用。
    的頭像 發(fā)表于 03-26 11:09 ?788次閱讀

    光伏戶用如何做到低成本?

    光伏戶用如何做到低成本? 隨著可再生能源的日益普及和技術(shù)的不斷進(jìn)步,光伏系統(tǒng)正逐漸走進(jìn)千家萬(wàn)戶。然而,對(duì)于光伏企業(yè)來(lái)說(shuō),如何在激烈的市場(chǎng)競(jìng)爭(zhēng)中低
    發(fā)表于 02-27 10:33

    快速全面了解大模型長(zhǎng)文本能力

    那關(guān)于LLM的長(zhǎng)文本能力,目前業(yè)界通常都是怎么做的?有哪些技術(shù)點(diǎn)或者方向?今天我們就來(lái)總結(jié)一波,供大家快速全面了解。
    發(fā)表于 02-22 14:04 ?856次閱讀
    快速全面了解大<b class='flag-5'>模型</b><b class='flag-5'>長(zhǎng)文本</b>能力

    谷歌發(fā)布AI新版本Gemini 1.5

    谷歌近日宣布推出其最新的人工智能(AI)版本——Gemini 1.5,這一新版本在文本處理能力上實(shí)現(xiàn)了重大突破。據(jù)了解,Gemini 1.5 Pro的上下文窗口長(zhǎng)度已經(jīng)擴(kuò)展到驚人的100萬(wàn)個(gè)
    的頭像 發(fā)表于 02-19 11:05 ?1139次閱讀
    主站蜘蛛池模板: 日韩 三级| 福利你懂的| 亚洲午夜视频在线观看| 啪啪网站免费看| 亚洲成a人片在线观看尤物| 黄色毛片大全| 黄乱色伦短篇小说h| 中文字幕亚洲综合久久2 | 亚洲成a人片毛片在线| 精品99久久| 国产黄大片在线观看| 一级特级片| 国产色秀视频| 色涩在线| 日本网站免费观看| 色天天综合色天天碰| av免费网站在线观看| 国产小视频你懂的| bt天堂网在线| 色噜噜狠狠色综合久| 天天谢天天干| 国产在线播放一区| 国产女人在线观看| 欧美日穴| 欧美成人午夜| 国产午夜毛片v一区二区三区| 亚色在线视频| 午夜精品在线视频| 国产在播放一区| 成人亚洲网站| 亚洲综合涩| 黄www色| 美女啪啪91| 美女色黄一男一女| sss欧美华人整片在线观看| 特黄特级高清免费视频毛片| 亚洲第一视频| 伊人精品久久久大香线蕉99| www色网站| 九九热在线免费视频| 成人在线天堂|