在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

ChatGPT背后的核心技術

AI智勝未來 ? 來源:智能化學習與思考 ? 2023-02-09 16:18 ? 次閱讀

輸入幾個簡單的關鍵詞,AI能幫你生成一篇短篇小說甚至是專業論文。最近大火的ChatGPT在郵件撰寫、文本翻譯、代碼編寫等任務上強大表現,讓埃隆·馬斯克都聲稱感受到了AI的“危險”。ChatGPT的計算邏輯來自于一個名為transformer的算法,它來源于2017年的一篇科研論文《Attention is all your need》。原本這篇論文是聚焦在自然語言處理領域,但由于其出色的解釋性和計算性能開始廣泛地使用在AI各個領域,成為最近幾年最流行的AI算法模型,無論是這篇論文還是transformer模型,都是當今AI科技發展的一個縮影。以此為前提,本文分析了這篇論文的核心要點和主要創新初衷。

01緣起

從Transformer提出到“大規模與訓練模型” GPT(Generative Pre-Training)的誕生,再到GPT2的迭代標志Open AI成為營利性公司,以及GPT3和ChatGPT的“出圈”;再看產業界,多個重要領域比如生物醫療,智能制造紛紛有以transformer落地的技術產生。在這個浪潮下,我的思考是:

一是,未來很長一段時間在智能化領域,我們都將經歷“科研、算力、基礎架構、工程、數據、解決方案”這個循環的快速迭代;流動性、創新性短期不會穩定下來,而是會越來越強。我們很難等到科技封裝好,把這些知識全部屏蔽掉,再去打磨產品。未來在競爭中獲勝的,將是很好地“解決了產品化和科研及工程創新之間平衡”的團隊。我們一般理解的研發實際上是工程,但AI的實踐科學屬性需要團隊更好的接納這種“流動性”。因此對所有從業者或者感興趣智能化的小伙伴了解全棧知識成了一個剛需。

二是,通過對這篇論文的探討,可以更直觀地理解:在科研端發生了什么,以什么樣的速度和節奏發生;哪些是里程碑?是科學界的梅西橫空出世,帶我們發現真理;哪些是微創新?可能方向明確了,但還有很多空間可以拓展;哪些更像煉金術?仍然在摸索,尚需要很長一段時間,或者一直會保持這個狀態。

三是,在AI領域,由于技術原因,更多的論文是開源代碼的,一方面,促進了更多人參與進來改進迭代;另一方面,科研跟工程實現無縫連接,一篇論文可以拉動從核心代碼到平臺,到具體應用很大范圍的價值擴散。一篇論文很可能就是一個領域,一條賽道,甚至直接驅動業務價值和客戶價值的大幅提升。

四是, AI技術發展有很多領域(感知,認知,感知又分圖像、語音、文字等,認知也可以分出很多層次)之前這些領域的算法邏輯存在很大差別,transformer的出現有一定程度上推動各個領域匯聚的跡象,介紹清楚這篇論文,對把握整體可能有些作用。另外ChatGPT屬于現象級應用,大家更有直觀感受,未來這類應用的體驗提升和更新速度只會更快,理解了其背后的邏輯,更有助于我們把握這個趨勢。

02 論文介紹

下面步入正題,開始介紹這篇論文,會涉及一些技術細節及公式,可能還需要仔細看一下(先收藏,留出15-20分鐘比較好),相信一旦看進去,你會對AI的理解加深很多。

總體把握

這篇論文的結構非常精煉,提出問題,分析問題,解決問題,給出測試數據。頂刊文章講究言簡意賅,有描述,有代碼,有結果;其中最核心的是以下這張圖,作者團隊提出transformer的核心算法結構:

0082c682-a7a2-11ed-bfe3-dac502259ad0.png

整篇文章就是圍繞這張圖來進行解釋的,由于篇幅所限,我們聚焦在一條主線上:1.文章想解決主要問題是什么 2.如何解決的 3.從文章提出的解決方案作為一個案例來引發整體思考,因此我們將內容簡化,主要關注核心部分。

00970e80-a7a2-11ed-bfe3-dac502259ad0.png

這張圖表達的內容如果理解了,那基本上你掌握了這篇論文85%的內容,也是最關鍵的部分。

《Attention is all your need》在編寫時主要是為了考慮NLP任務,是由幾個Google的科研人員一起完成的,其中一個背景是Google也在推廣自己的并行計算芯片以及AI TensorFlow開發平臺。平臺主要功能特點是并行計算,這篇文章的算法也是在最大限度的實現并行計算。我們就以一個簡單的例子來把這個算法串一遍。

核心內容

需求是我們需要訓練一個模型,進行中文到英文翻譯。

背景知識:這個需求要把“翻譯:我愛你 to I love you”轉置成一個y=f(x)問題,x代表中文,y是英文,我們要通過訓練得到f(),一旦訓練成功f(),就可以實現翻譯。大家拼的就是誰的訓練方法更準確,更高效,誰的f()更好用。

之前自然語言處理主要的算法叫RNN(循環神經網絡),它主要的實現邏輯是每個“字”計算之后將結果繼承給第二個字。算法的弊病是需要大量的串行計算,效率低。而且當遇到比較長的句子時,前面信息很有可能會被稀釋掉,造成模型不準確,也就是對于長句子效果會衰減。這是這篇文章致力于要解決的問題,也就是說這篇文章有訓練處更好的f()的方法。聯想一下ChatGPT可以做論文,感受一下。

在Transformer里,作者提出了將每個字與句子中所有單詞進行計算,算出這個詞與每個單詞的相關度,從而確定這個詞在這個句子里的更準確意義。

在此處,要開始進入一些技術細節,在開始之前,我們有必要再熟悉一下機器學習領域最核心的一個概念——“向量”。在數字化時代,數學運算最小單位往往是自然數字。但在AI時代,這個最小單元變成了向量。這是數字化時代計算和智能化時代最重要的差別之一。

舉個例子,比如,在銀行,判斷一個人的信用額度,我們用一個向量來表示

00a9e7f8-a7a2-11ed-bfe3-dac502259ad0.png

向量是一組數據的集合,也可以想象成在一個超高維度空間里的一個點。一個具體的信用額度向量,就是在8個特征組成的高維空間的一個點。數據在高維空間將展現更多的數學性質比如線性可分,容易讓我們抓住更多隱藏的規律。

向量的加減乘除是計算機在進行樣本訓練是最主要的計算邏輯。

Transformer模型的主要意義就是找到了一個算法,分成三步把一個詞逐步定位到了一個高維空間,在這個過程中賦予這個單詞比其它算法更優的信息。很多情況下這個高維空間有著不同的意義,一旦這個向量賦予的信息更準確更接近真實情況,后面的機器學習工作就很容易展開。還拿剛才信用額度向量舉例子

00b99748-a7a2-11ed-bfe3-dac502259ad0.png

這兩個向量存在于兩個不同的向量空間,主要的區別就是前者多了一個向量特征:“年薪”。可以思考一下如果判斷一個人的信用額度,“年薪”是不是一個很重要的影響因子?

以上例子還是很簡單的,只是增加了一個特征值,在transformer里就復雜很多,它是要把多個向量信息通過矩陣加減乘除綜合計算,從而賦予一個向量新的含義。

好,理解了向量的重要性,我們看回transformer的三步走,這三步走分別是:1.編碼(Embedding)2. 定位(Positional encoding)3. 自注意力機制(Self-Attention)。

舉個例子,比如,翻譯句子Smart John is singing到中文。

首先,要對句子每個詞進行向量化。

我們先看“John”這個詞,需要先把“John”這個字母排列的表達轉換成一個512維度的向量John,這樣計算機可以開始認識它。說明John是在這個512維空間的一個點,這是第一步:編碼(Embedding)。

再次,第二步:定位(Positional encoding),利用以下公式(這是這篇論文的創新)

00d9fba0-a7a2-11ed-bfe3-dac502259ad0.png

微調一個新的高維空間,生成一個新的向量。

00efbfa8-a7a2-11ed-bfe3-dac502259ad0.png

我們不用太擔心這個公式,它核心意義是:1.在這個新的向量里面每一位由原來的0和1表示,分別取代成由sin和cos表示,這個目的是可以通過sin和cos的定律,讓這個新向量不僅表示John這個單詞的意義,還可以表示John在Smart John is singing這個句子的位置信息。如果不理解,可以直接忽略,只要記住第二步是用來在“表達John這個詞的向量”中,加入了John在句子中的位置信息。John已經不是一個孤立的詞,而是一個具體句子中的一個詞,雖然還不知道句子中其他詞是什么含義。

如果第一步計算機理解了什么是John,第二步計算機理解了“* John**”。

最后,第三步:自注意力機制(Self-Attention),通過一個Attention(Q,K,V)算法,再次把John放到一個新的空間信息里,我們設為

00fda942-a7a2-11ed-bfe3-dac502259ad0.png

在這個新向量里,不僅包含了John的含義,John在句子中位置信息,更包含了John和句子中每個單子含義之間的關系和價值信息。我們可以理解,John作為一個詞是一個泛指,但Smart John就具體了很多,singing的Smart John就又近了一步。而且Attention (Q,K,V)算法,不是對一個單詞周圍做計算,是讓這個單詞跟句子里所有單詞做計算。通過計算調整這個單詞在空間里的位置。

這種方法,可以在一個超長句子中發揮優勢,而且最關鍵的是一舉突破了時序序列的屏障,以前對于圖像和NLP算法的劃分,很大程度上是由于NLP有很明顯的時序特征,即每個單詞和下一個以及在下一個有比較明顯的時序關系。但Transformer這種算法打破了這種束縛,它更在意一個單詞跟句子中每個單詞的價值權重。這是Transformer可以用到everywhere的主要原因。

010d9140-a7a2-11ed-bfe3-dac502259ad0.png

計算過程

具體的計算過程,用翻譯句子“我愛你”到“I love you”舉例(這句更簡單一些)。首先進行向量化并吸收句子位置信息,得到一個句子的初始向量組。

01341acc-a7a2-11ed-bfe3-dac502259ad0.png

(由于樣本每個句子長短不同,所以每個句子都會是一個512*512的矩陣,如果長度不夠就用0來代替。這樣在訓練時,無論多長的句子,都可以用一個同樣規模的矩陣來表示。當然512是超參,可以在訓練前調整大小。)

接著,用每個字的初始向量分別乘以三個隨機初始的矩陣WQ,Wk,Wv分別得到三個量Qx,Kx,Vx。下圖以“我”舉例。

0145b00c-a7a2-11ed-bfe3-dac502259ad0.png

然后,計算每個單詞的attention數值,比如“我”字的attention值就是用“我”字的Q我分別乘以句子中其他單詞的K值,兩個矩陣相乘的數學含義就是衡量兩個矩陣的相似度。然后通過一個SoftMax轉換(大家不用擔心如何計算),計算出它跟每個單詞的權重,這個權重比例所有加在一起要等于1。再用每個權重乘以相對應的V值。所有乘積相加得到這個Attention值。

015a7546-a7a2-11ed-bfe3-dac502259ad0.png

這個attention數值就是除了“我”字自有信息和位置信息以外,成功的得到了這個句子中每個單詞的相關度信息。

大家可以發現,在所有注意力系數的計算邏輯中其實只有每個字的初始矩陣WQ,Wk,Wv是未知數(這三個矩陣是所有文字共享的)。那么我們可以把這個transformer簡化成一個關于輸入,輸出和這個W矩陣的方程:其中X是輸入文字信息,Y是翻譯信息。

016d233a-a7a2-11ed-bfe3-dac502259ad0.png

這里有必要再介紹一下機器學習的基礎知識:Transformer算法本質上是一個前饋神經網絡模型,它的計算基礎邏輯,不去管復雜的隱藏層,就是假設Y=f(x)=wx,(目標還是要算出一個f())然后隨機設置一個w0,開始計算這個y=w0x的成本函數,然后再把w0變成w1,計算y=w1x的成本函數,以此類推計算出無數w(不是無數,也會收斂),然后比較哪個w的成本函數最小,就是我們訓練出來的f()。那么在transformer里,這三個初始矩陣就是那個w0。

再回到transformer,在計算Attention之后,每個單詞根據語義關系被打入了新的高維空間這就是Self-attention(自注意力機制)。

但在transformer里,并不是代入了一個空間,而是代入了多個高維空間,叫做多頭注意力機制,(文章中沒有給出更清晰的理論支持,為什么是多頭)。

017b86f0-a7a2-11ed-bfe3-dac502259ad0.png

主要原因是在訓練時效果很好。這也是AI科研論文的一個特點,常常憑借非常高的科研素養和敏感性,發現一些方向,并且通過測試確實有效,但不一定可以給出很完美的理論支撐。這往往也給后續研究者一些可以進一步完善的空間。

事實證明,如何提升Attention(Q,K,V)效率是transformer領域迭代最快的部分。之后的Bert算法提出預訓練機制成為了主流,后面會做進一步介紹。

當然,事后我們可以理解是把這個句子中的邏輯關系放到不同的高維空間去訓練,目的就是希望抓取更多的信息,這一部分可以更加深刻理解科研人員對空間的應用。

除了以上內容,還有一些技術點比如Mask機制、layer norm、神經網絡激函數飽和區控制等,由于篇幅關系以及屬于技術細節就不一一介紹了。

如果大家理解了多頭自注意力機制,基本已經85%掌握了這篇論文的重要內容,也對還在快速擴展影響力的transformer模型有了一個比較直觀的認識。

03啟發收獲

從理論科研進步的角度看

一、Transformer打破了時序計算的邏輯,開始快速出圈,多個AI原本比較獨立的領域開始在技術上融合。再往里看,Transformer能打破時序很重要一點是并行計算的算力模式給更復雜的計算帶來了性價比上的可能性。算力的進一步提高,必將在AI各細分領域帶來融合,更基礎設施級別的模型,算法仍將不斷推出。AI領域在圖像,NLP;感知認知領域的專業分工也會慢慢變模糊。

二、AI科研確實具有一些實驗性質。除了核心思想,確實還有很多技術點的解決方向已經明確,但還有很大的提升空間,可以預見圍繞transformer周邊的微創新會持續加速繁榮。

三、《Attention is all your need》在業內大名鼎鼎,但你要是細看,會發現很多內容也是拿來主義,比如最重要的Attention(Q,K,V)中Query,Key,Value是互聯網推薦系統的標配方法論;整個Transformer算法也是一個大的神經網絡,算法是在前人基礎上一步一步迭代發展,只是這個迭代速度明顯在加快。

從理論、算法、架構、工程的角度看

四、AI算法科研領域正經歷算法、開源代碼、工程、算力的增長飛輪。

下圖是頂級刊物上的學術論文中,開放源代碼的論文比例,這個數據在這幾年以更快的速度在增長。科研過程與工程過程產生越來越大的交集。開源社區和開源文化本身也在推動算法和工程的快速發展。

01d62f24-a7a2-11ed-bfe3-dac502259ad0.png

更多人參與,更多領域的人參與進來,進入門檻隨著算力成本、AI基礎架構和代碼、知識分享的開源逐漸降低,科研與工程的邊界也變得模糊,這個就像足球運動的規律,除了足球人口增多,天才球員梅西出現的概率也會增大。

從數據和后續發展的角度看

五、ChatGPT的成功同大量的數據訓練功不可沒,但除了簡單對話互動或者翻譯,大篇幅回答甚至論文級別的答案還是極其缺乏樣本數據(算法訓練需要的樣本數據需要清晰度X和Y)。而且Transformer的算法相比其他算法需要更大的數據量,原因在于它需要起始階段隨機產生三個矩陣,一步一步進行優化。除了Transformer以外,另一個技術Bert也是技術發展非常重要的現象級算法。其核心是一個簡化的Transformer,Bert不去做從A翻譯到B,它隨機遮住X里面的一些單詞或句子讓算法優化對遮住部分的預測。這種思路使得Bert成為了Transformer預訓練最好的搭檔。

01f4fdd2-a7a2-11ed-bfe3-dac502259ad0.png

如果通過Bert進行預訓練,相當于給矩陣加入了先驗知識(之前訓練邏輯沒有給機器任何提示,規則后者基礎知識),提高了正式訓練時初始矩陣的準確度,極大地提升了之后transformer的計算效率和對數據量的要求。在現實中,舉例來說,如果我想訓練國家圖書館圖書,之前需要每本書的信息和對這本書的解釋,或者中文書對應的英文書。但現在我們可以大量只是訓練內容,不需要打標簽,之后只需要通過transformer對樣本數據進行微調。這就給ChatGPT很大的進步空間,而且可以預見,更多這類大模型會雨后春筍一般快速出現。

六、由于transformer是更高級的神經網絡深度學習算法,對數據量有很高要求,這也催生了從小數據如何快速產生大數據的算法,比如GAN對抗網絡等。這是AIGC領域的核心技術。解決數據量不足問題,除了更高效率抽象小數據的信息,也多了把小數據補足成大數據的方法,而且這些方法在快速成熟。

七、我們發現在機器學習算法中有大量的超級參數,比如在transformer里多頭機制需要幾頭N,文字變成向量是512還是更多,學習速率等都需要在訓練之前提前設置。由于訓練時間長,參數復雜,要想遍歷更優秀的計算效果需要非常長的摸索時間。這就催生出AutoML,拿Transformer舉例,就要很多個路線進行自動化機器學習;比如貝葉斯計算(找到更優參數配置概率);強化學習思路(貪婪算法在環境不明朗情況下迅速逼近最優);另外還有尋求全新訓練網絡的方法(transformer,RNN,MLP等聯合使用排列組合)等。

科研發展強調參數化,工業發展強調自動化,這兩者看似統一,但在現實實操過程中往往是相當痛苦矛盾的。這也是開篇說的產品化和科研流動性相平衡的一個重要領域。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 算法
    +關注

    關注

    23

    文章

    4612

    瀏覽量

    92887
  • 機器學習
    +關注

    關注

    66

    文章

    8418

    瀏覽量

    132628
  • ChatGPT
    +關注

    關注

    29

    文章

    1560

    瀏覽量

    7666

原文標題:ChatGPT背后的核心技術

文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    從MCU到SoC:汽車芯片核心技術的深度剖析

    在科技日新月異的今天,汽車已經從單純的交通工具演變為集智能化、網聯化、電動化于一體的高科技產品。這一變革的背后,汽車芯片作為汽車電子系統的核心組成部分,發揮著至關重要的作用。本文將深入探討汽車芯片產業鏈及其關鍵核心技術,揭示這一
    的頭像 發表于 12-20 13:40 ?791次閱讀
    從MCU到SoC:汽車芯片<b class='flag-5'>核心技術</b>的深度剖析

    晶沛自主研發氣液集成滑環關鍵核心技術分析

    晶沛電子深耕滑環行業近30年,早已具備自主研制氣液集成滑環的技術實力-在氣液電集成方面已掌握多項關鍵核心技術
    的頭像 發表于 10-23 15:05 ?191次閱讀
    晶沛自主研發氣液集成滑環關鍵<b class='flag-5'>核心技術</b>分析

    ChatGPT背后的AI背景、技術門道和商業應用

    作者:京東科技 李俊兵 各位看官好,我是球神(江湖代號)。 自去年11月30日ChatGPT問世以來,迅速爆火出圈。 起初我依然以為這是和當年Transformer, Bert一樣的“熱點”模型
    的頭像 發表于 10-18 15:42 ?2003次閱讀
    <b class='flag-5'>ChatGPT</b><b class='flag-5'>背后</b>的AI背景、<b class='flag-5'>技術</b>門道和商業應用

    新能源汽車小三電的核心技術

    新能源汽車的核心在于三電系統,即電池、電機和電控。而在這三電系統中,我們又可以細分為“大三電”與“小三電”。大三電主要包括驅動電機、電控和變速器;而小三電則涵蓋高壓配電盒PDU、車載充電機OBC以及DC/DC變換器。今天,我們就來深入了解一下小三電的核心技術
    的頭像 發表于 10-16 14:45 ?444次閱讀
    新能源汽車小三電的<b class='flag-5'>核心技術</b>

    精準定位,深度清潔:揭秘工廠清潔機器人的核心技術

    探索這些智能清潔衛士背后核心技術,感受科技帶來的變革與驚喜。 工廠清潔機器人的精準定位技術,是其高效作業的前提與保障。不同于傳統清潔方式,這些機器人搭載了高精度的激光雷達、視覺傳感器以及先進的即時定位與地
    的頭像 發表于 09-28 06:33 ?444次閱讀

    AI網絡發展的四大核心技術支柱

    在AI大模型時代,隨著模型參數量與訓練集規模的爆炸性增長,單純依賴GPU單體算力的提升已難以滿足需求,業界焦點逐漸轉向系統架構層面的革新,其中,作為底層核心技術的網絡成為了突破的關鍵。全球科技巨頭正競相研發相關產品技術,AI網絡技術
    的頭像 發表于 08-14 17:11 ?1018次閱讀

    圖像識別算法的核心技術是什么

    圖像識別算法是計算機視覺領域的一個重要研究方向,其目標是使計算機能夠像人類一樣理解和識別圖像中的內容。圖像識別算法的核心技術包括以下幾個方面: 特征提取 特征提取是圖像識別算法的基礎,它從原始圖像
    的頭像 發表于 07-16 11:02 ?641次閱讀

    OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來了

    和情緒的選項 實時視頻捕捉,在與ChatGPT 交互時無需發送照片 有能力在會議和視頻通話中提供協助 發布會為其潛在影響提供了清晰的愿景。隨著企業駕馭不斷變化的技術領域,擁抱ChatGPT-4o對于實現持續增長和創新至關重要。
    發表于 05-27 15:43

    【大語言模型:原理與工程實踐】核心技術綜述

    我也不打算把網上相關的信息在總結一下,這樣的話,工作量很大。 我主要看了-大語言模型基礎技術這節 大語言模型(Large Language Models,LLMs)的核心技術涵蓋了從模型的架構設計到
    發表于 05-05 10:56

    新能源汽車核心技術加油站-VCU

    新能源汽車核心技術加油站-VCU
    的頭像 發表于 04-20 08:10 ?357次閱讀
    新能源汽車<b class='flag-5'>核心技術</b>加油站-VCU

    在FPGA設計中是否可以應用ChatGPT生成想要的程序呢

    當下AI人工智能崛起,很多開發領域都可看到ChatGPT的身影,FPGA設計中,是否也可以用ChatGPT輔助設計呢?
    發表于 03-28 23:41

    安達發|APS生產排程軟件6大核心技術

    APS生產排程軟件是一種先進的生產計劃和調度工具,它通過整合企業內外部資源,實現生產計劃的優化和生產過程的自動化控制。APS生產排程軟件的核心技術包括產品工藝數據管理(PDM)、客戶需求管理(CRM
    的頭像 發表于 02-20 16:09 ?675次閱讀
    安達發|APS生產排程軟件6大<b class='flag-5'>核心技術</b>

    【國產FPGA+OMAPL138開發板體驗】(原創)6.FPGA連接ChatGPT 4

    ChatGPT 4這樣的模型需要大量的計算資源和優化技術,而FPGA只是其中的一部分: // 首先,我們需要在FPGA上創造一個超級智能網絡精靈 module ChatGPT
    發表于 02-14 21:58

    大數據技術是干嘛的 大數據核心技術有哪些

    據的核心技術,包括數據采集、存儲與管理、處理與分析等方面。 一、大數據技術背景和概念 1.1 背景 隨著互聯網技術的迅猛發展,人們可以通過各種途徑產生、獲取和傳輸數據,使數據量呈現爆炸式增長的趨勢。這些數據來源包括
    的頭像 發表于 01-31 11:07 ?3465次閱讀

    邊緣AI核心技術和產業鏈!技術持續進步,應用不斷拓展!

    ,并保護用戶的隱私。此外,邊緣AI還可以在沒有互聯網連接的情況下獨立運行,這對于一些實時性要求較高的應用非常重要。 ? 邊緣AI 產業鏈及核心技術 ? 邊緣AI涉及的核心技術很多,包括但不限于網絡技術、傳感
    的頭像 發表于 01-11 01:20 ?4748次閱讀
    邊緣AI<b class='flag-5'>核心技術</b>和產業鏈!<b class='flag-5'>技術</b>持續進步,應用不斷拓展!
    主站蜘蛛池模板: 不卡精品国产_亚洲人成在线| aa级毛片| 天天摸天天摸天天躁| 午夜色大片在线观看| 亚洲综合第一区| 久草视频资源在线| 色小视频| 97色综合| 8844aa在线毛片| 四虎影视入口| 欧美成人免费全部观看天天性色| 永久免费影视在线观看| 久久久久久人精品免费费看| 日本69xxxxx| 国产尤物在线视频| 毛片一级黄色| 久久午夜网| 亚洲精品一线二线三线| 欧美日本色| 免费日本黄色网址| 三级黄a| 免费香蕉视频国产在线看| 人人干狠狠操| 丝袜美女被c| 深夜释放自己vlog糖心旧版本 | 成 年 人 视频在线播放| 午夜黄色网址| 三级视频在线播放线观看| 午夜100| 国产在线99| 成人欧美一区二区三区黑人3p| 免费看黄色片网站| 五月婷婷婷婷婷| 亚洲国产第一区二区香蕉| 911精品国产91久久久久| 视频黄色免费| 天堂中文最新版www| 天天躁夜夜躁狠狠躁2024| 久久中文字幕综合婷婷| 色多多福利网站| 一级特黄aaa大片免色|