在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大模型“涌現(xiàn)”的思維鏈,究竟是一種什么能力?

腦極體 ? 來源:腦極體 ? 作者:腦極體 ? 2023-04-29 14:32 ? 次閱讀

聽說最近AI大廠的開發(fā)人員和高校的NLP研究人員,都在琢磨,怎么讓大模型“涌現(xiàn)”。那畫面莫名就讓我想到了程序員給服務(wù)器上香來保佑不宕機(jī),都有種求諸于天的玄學(xué)。

所謂“涌現(xiàn)”,在大模型領(lǐng)域指的是當(dāng)模型突破某個規(guī)模時,性能顯著提升,表現(xiàn)出讓人驚艷、意想不到的能力。比如語言理解能力、生成能力、邏輯推理能力等。一般來說,模型在100億到1000億參數(shù)區(qū)間,可能產(chǎn)生能力涌現(xiàn)。

但老話說得好“氪不救非,玄不改命”??吭义X和運(yùn)氣,只一味把模型做的大大大,也未必能讓AI“顯靈”。

強(qiáng)大的邏輯推理是大語言模型“智能涌現(xiàn)”出的核心能力之一,好像AI有了人的意識一樣。而推理能力的關(guān)鍵,在于一個技術(shù)——思維鏈(Chain of Thought,CoT)。

大家如果看過類GPT應(yīng)用的翻車問題,會發(fā)現(xiàn)大多都是數(shù)學(xué)算術(shù)題、邏輯思考題等,這類需要精確推理的問題,而這正是思維鏈能夠重點(diǎn)解決的。現(xiàn)在訓(xùn)練大語言模型的企業(yè)和機(jī)構(gòu)很多,但能夠訓(xùn)練出思維鏈并應(yīng)用的很少。

換句話說,只有解鎖了思維鏈技術(shù),大語言模型才有可能“涌現(xiàn)”,才能在“大煉模型”的競爭中具備能力優(yōu)勢。

思維鏈的故事,我們從一個奇男子說起。

一個神奇的男子

思維鏈,在人工智能領(lǐng)域,是一個非常非常新的概念。

2022年1月,它的相關(guān)論文才被放到arxiv上,成果也特別驚艷,谷歌在當(dāng)年五月的年度開發(fā)者大會Google I/O 2022,也對思維鏈這一研究成果進(jìn)行了宣傳。當(dāng)時同臺宣傳的還有大模型PaLM和Pixel系列手機(jī)等。

你可能發(fā)現(xiàn)了華點(diǎn),怎么讓思維鏈聞名世界的,卻變成了OpenAI的ChatGPT呢?

這就要提到一個奇男子——思維鏈的提出者Jason Wei。

之所以神奇,一是本人能力卓絕。

這位華人科學(xué)家,2020年本科畢業(yè)成為谷歌大腦的高級研究員,在任職期間,提出了思維鏈的概念,發(fā)現(xiàn)思維鏈可以在大語言模型中增強(qiáng)推理能力。

wKgZomRLzxWAHCOhAAKEfEN_SRg306.jpg

(Jason Wei的個人博客www.jasonwei.net)

二是他的個人際遇,對AI影響很大,2022年2月他離開谷歌,加入了OpenAI,進(jìn)入ChatGPT團(tuán)隊(duì),這也是思維鏈在OpenAI發(fā)揚(yáng)光大,讓ChatGPT拔得頭籌的原因之一。

那這位奇男子和同事的工作,究竟干了什么呢?

wKgaomRLzxWARP4xAABVeZsWCGI615.jpg

谷歌之前在大模型下了很大功夫,GPT生成式預(yù)訓(xùn)練模型中的“T”,也就是Transformer,就是谷歌大腦搞出來的。但是,預(yù)訓(xùn)練+精調(diào)的大模型搞了幾年,仍然沒辦法很好地完成多步驟推理任務(wù),比如數(shù)學(xué)問題和常識推理。

所以Jason Wei等人提出了思維鏈提示的方法,真的一下子就讓大模型的邏輯推理能力不一樣了。

具體來說,有三個不一樣:

1.常識推理能力趕超人類。以前的語言模型,在很多挑戰(zhàn)性任務(wù)上都達(dá)不到人類水平,而采用思維鏈提示的大語言模型,在Bench Hard(BBH)評測基準(zhǔn)的23個任務(wù)中,有17個任務(wù)的表現(xiàn)都優(yōu)于人類基線。

比如常識推理中會包括對身體和互動的理解,而在運(yùn)動理解sports understanding方面,思維鏈的表現(xiàn)就超過了運(yùn)動愛好者(95% vs 84%)。

wKgZomRLzxaAKUSYAAFASRu3sYk100.jpg

(思想鏈被高亮顯示)

2.數(shù)學(xué)邏輯推理大幅提升。

一般來說,語言模型在算術(shù)推理任務(wù)上的表現(xiàn)不太好,而應(yīng)用了思維鏈之后,大語言模型的邏輯推理能力突飛猛進(jìn)。

MultiArith和GSM8K這兩個數(shù)據(jù)集,測試的是語言模型解決數(shù)學(xué)問題的能力,而通過思維鏈提示,PaLM這個大語言模型比傳統(tǒng)提示學(xué)習(xí)的性能提高了300%!

在MultiArith和GSM8K上的表現(xiàn)提升巨大,甚至超過了有監(jiān)督學(xué)習(xí)的最優(yōu)表現(xiàn)。

這意味著,大語言模型也可以解決那些需要精確的、分步驟計(jì)算的復(fù)雜數(shù)學(xué)問題了。

wKgaomRLzxaAHZvJAACWQSrUbgI516.jpg

3.大語言模型更具可解釋性,更加可信。

我們知道超大規(guī)模的無監(jiān)督深度學(xué)習(xí),打造出來的大模型是一個黑盒,推理決策鏈不可知,這就會讓模型結(jié)果變得不夠可信。

而思維鏈將一個邏輯推理問題,分解成了多個步驟,來一步步進(jìn)行,這樣生成的結(jié)果就有著更加清晰的邏輯鏈路,提供了一定的可解釋性,讓人知道答案是怎么來的。

Jason Wei這位奇男子提出的思維鏈,可以說是大語言模型驚艷世界的必要條件。

一句神奇的咒語

花式調(diào)戲大語言模型,有一句非常神奇的咒語,能讓LLM的回答結(jié)果大不一樣,那就是——“Let’s think step by step”。

此前很多用戶就發(fā)現(xiàn),一旦在問題中加上“Let’s think step by step”,ChatGPT就好像被施了魔法,原本做錯的數(shù)學(xué)題,突然就會做了;原本的胡說八道,突然就有理有據(jù)了。

這就是思維鏈的魔力。

wKgZomRLzxeAVidzAACnauk-ieE291.jpg

思維鏈(Chain-of-thought,CoT),指的是一系列有邏輯關(guān)系的思考步驟,形成一個完整的思考過程。

人在日常生活中,隨時隨地都會用思維鏈來解決問題,比如工作、讀書經(jīng)常用到的思維導(dǎo)圖,就是為了盡可能全面拆解步驟,不忽略重要細(xì)節(jié),從而充分地考慮問題。

這種步驟分解的方式用在提示學(xué)習(xí)中,就被稱為思維鏈提示,將大語言模型的推理過程,分解成一個個步驟,直觀地展現(xiàn)出來,這樣開發(fā)人員可以在LLM推理出現(xiàn)錯誤時,就及時地修復(fù)。

相當(dāng)于讓AI做分析題,而不是“填空題”,要把推理過程詳細(xì)說清楚,按步驟得分,最后給出答案。

Jason Wei等在2022年的論文中,展示了標(biāo)準(zhǔn)提示學(xué)習(xí)和思維鏈提示的不同之處:

wKgaomRLzxiAc803AAIZT50_cxE039.jpg

可以看到,類似的算術(shù)題,思維鏈提示會在給出答案之前,還會自動給出推理步驟:

“羅杰先有5個球,2罐3個網(wǎng)球等于6個,5 + 6 = 11”

“食堂原來有23個蘋果,用20個做午餐,23-20=3;又買了6個蘋果,3+6=9”

思維鏈提示給出了正確答案,而直接報(bào)答案的傳統(tǒng)提示學(xué)習(xí),給出的答案就是錯的,連小學(xué)程度的加減法都做不好。

簡單來說,語言模型很難將所有的語義直接轉(zhuǎn)化為一個方程,因?yàn)檫@是一個更加復(fù)雜的思考過程,但可以通過中間步驟,來更好地推理問題的每個部分。

思維鏈提示,就是把一個多步驟推理問題,分解成很多個中間步驟,分配給更多的計(jì)算量,生成更多的token,再把這些答案拼接在一起進(jìn)行求解。

wKgZomRLzxiAAiPkAAEbOC7IsxM740.jpg

再舉個例子,大家都特別希望有一個全能家政機(jī)器人,但目前的機(jī)器人看起來都挺傻的,只能執(zhí)行一些很簡單的開關(guān)燈指令。如果用戶問:“我把可樂灑在桌子上了,你能把它扔掉,然后拿點(diǎn)東西來幫我清理嗎?”

機(jī)器人該怎么辦呢?

這時候有思維鏈的語言模型,會分析問題:用戶把可樂灑在桌子上了。我會把它扔掉,然后給用戶一塊海綿。

拆解步驟:找(可樂),揀(可樂),找(垃圾),扔(可樂),找(海綿),揀(海綿),找(桌子),放(海綿)。

總的來說,思維鏈就相當(dāng)于讓大語言模型做“因式分解”,把一個復(fù)雜的推理問題進(jìn)行拆解,逐步解決,自然也就更容易得到高質(zhì)量的答案了。

一個打破僵局的靈感

你可能會問,大語言模型“智能涌現(xiàn)”,思維鏈?zhǔn)潜仨毜膯??目前階段,確實(shí)。

因?yàn)椋A(yù)訓(xùn)練的大語言模型參數(shù)規(guī)模巨大,很容易被不相關(guān)的上下文分散注意力,影響性能表現(xiàn),相當(dāng)于學(xué)生上課走神了,被老師叫起來回答問題只能胡言亂語。這時候就需要提示學(xué)習(xí)(Prompt Learning)來進(jìn)行微調(diào),相當(dāng)于旁邊有人給提了個醒,更好地完成下游任務(wù)。

wKgaomRLzxiANVIPAACBLhawkIA408.jpg

但離散式的硬提示(Discrete Prompt),需要人為設(shè)計(jì)提示詞prompt,而人類覺得不錯的提示詞,語言模型卻不一定覺得好,最后還是回答的一塌糊涂,而且,離散的token作為提示詞,優(yōu)化難度也特別大。

所以,連續(xù)化的軟提示(Continuous Prompt),限制了模型參數(shù)不被調(diào)整,直接優(yōu)化低維向量,這樣就可以用較小的微調(diào)來提升模型性能。這個方法省事兒,效果也不錯,但一直走這條路還是沒辦法讓語言模型搞懂邏輯推理。

思維鏈的提出,用的是離散式的token,又能自動構(gòu)建問題、推理步驟和樣例,這就解決了離散提示人工設(shè)計(jì)難的問題,而且還能讓語言模型擁有可解釋性。

所以說,思維鏈promoting,可以算是打破了大語言模型能力僵局的神來之筆。有時候技術(shù)的突破靠的就是一個靈感,而造就這個靈感的人才機(jī)制、創(chuàng)新環(huán)境、組織模式等,卻需要漫長的時間去培育。

一些待解的問題

說了這么多,是不是有了思維鏈,大語言模型就所向披靡了呢?照這么發(fā)展下去,真能媲美人類的能力了?

大可不必?fù)?dān)心,思維鏈本身還是有很多局限的,而它的局限也是大語言模型的局限。

首先,思維鏈必須在模型規(guī)模足夠大時才能涌現(xiàn)。

在Jason Wei等的研究中,PaLM在擴(kuò)展到540B參數(shù)時,與思維鏈提示結(jié)合,才表現(xiàn)出了先進(jìn)的性能。一些小規(guī)模模型,思維鏈并沒有太大的影響,能力提升也不會很大。

谷歌大腦的研究人員認(rèn)為,策略問題需要大量的世界知識,而小型模型沒有足夠的參數(shù)來記憶這些世界知識,所以也不太可能產(chǎn)生正確的推理步驟。

但問題是,能落地到產(chǎn)業(yè)的模型,規(guī)模必然不會太大,思維鏈拆解了更多的步驟、用到更多的計(jì)算資源,相當(dāng)于更加耗費(fèi)腦力,很多研究機(jī)構(gòu)和企業(yè)是負(fù)擔(dān)不起175B參數(shù)以上的大模型。

所以思維鏈必須要探索,如何在較小的模型中進(jìn)行推理,降低實(shí)際應(yīng)用的成本。

wKgZomRLzxmAGB_kAABRDWnKaNw656.jpg

62B比540B的語言模型更容易出錯

其次,思維鏈的應(yīng)用領(lǐng)域是有限的。

目前,思維鏈只是在一些有限的領(lǐng)域,比如數(shù)學(xué)問題,五個常識推理基準(zhǔn)(CommonsenseQA,StrategyQA,Date Understanding和Sports Understanding以及SayCan)上顯現(xiàn)出作用,其他類型的任務(wù),像是機(jī)器翻譯,性能提升效果還有待評估。

而且,相關(guān)研究用到的模型(GPT-3 API)或數(shù)據(jù)集,都是半公開或不公開的,這就使其難以被復(fù)現(xiàn)和驗(yàn)證。嚴(yán)謹(jǐn)來看,思維鏈的效果還需要被進(jìn)一步探索,才能下定論。

此外,即使有思維鏈提示,大語言模型依然不能解決小學(xué)水平的數(shù)學(xué)問題。

沒有思維鏈,數(shù)學(xué)推理是指定不行。但有了思維鏈,大語言模型也可能出現(xiàn)錯誤推理,尤其是非常簡單的計(jì)算錯誤。Jason Wei等的論文中,曾展示過在GSM8K的一個子集中,大語言模型出現(xiàn)了8%的計(jì)算錯誤,比如6 * 13 = 68(正確答案是78)。

這說明,即使有了思維鏈,大語言模型還是沒有真正理解數(shù)學(xué)邏輯,不知道加減乘除的真實(shí)意義,只是通過更精細(xì)的疊加來“照葫蘆畫瓢”,所以,對于有精確要求的任務(wù),還要進(jìn)一步探索新的技術(shù)。

思維鏈確實(shí)增強(qiáng)了大語言模型的能力,但邏輯推理仍然是大語言模型的弱項(xiàng),等待著更多突破。

One more thing

通過思維鏈,我們可以看到大語言模型為什么強(qiáng),也為什么弱。

它強(qiáng)在,模型規(guī)模的提高,讓語義理解、符號映射、連貫文本生成等能力躍升,從而讓多步驟推理的思維鏈成為可能,帶來“智能涌現(xiàn)”。

它弱在,即使大語言模型表現(xiàn)出了前所未有的能力,但思維鏈暴露了它,依然是鸚鵡學(xué)舌,而非真的產(chǎn)生了意識。

認(rèn)知心理學(xué)教授斯坦尼斯拉斯·迪昂(Stanislas Dehaene)在《精準(zhǔn)學(xué)習(xí)》中提出,緩慢地、理智地、符號化地運(yùn)作,是人腦的特權(quán)。它可以在任何可能的時候,提取具有普遍性、邏輯性的、明確的原則。

五六歲的兒童學(xué)會了較小數(shù)字的加法,就可以理解其含義,用到更大的數(shù)字的加法中,而目前最強(qiáng)大的大語言模型,還連“加法”這個簡單的抽象定律都理解不了。

這么說,并不是讓大家小看AI的能力,而是想說明,人腦和AI,各有所長。

大語言模型,正如科幻作家特德·姜所說,是網(wǎng)上所有文本的模糊圖像,一張有損壓縮的JPEG,但它可以用遠(yuǎn)超人腦的算力和數(shù)據(jù),極其高產(chǎn)地做好文本生成、圖像生成這樣的模糊任務(wù)。而人腦更擅長精確的、邏輯性的任務(wù),就像特德·姜說的:“當(dāng)你還有原始圖片的時候,一張模糊的JPEG到底有多大用處呢?”

智能時代的生存策略,就是不要以己之短,硬碰AI之長。而是用AI之長,讓自己的長板變得更長;用人腦的精確,讓AI生成的模糊答案變得更高質(zhì)量;用好思維鏈提示,讓LLM生成時事半功倍。

《哈利波特》電影中,有一個“有求必應(yīng)屋”,里面全是人所需要的東西,海倫娜形容它:

If you have to ask, you'll never know. If you know, you need only ask.

如果你還需要問,就永遠(yuǎn)不會明白;如果你明白,你只需要開口問。

有問必答的AI時代,是智者的天堂,也是愚者的地獄。永遠(yuǎn)不要讓AI代替你思考。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30919

    瀏覽量

    269171
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    488

    瀏覽量

    22038
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1090

    瀏覽量

    6531
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1562

    瀏覽量

    7695
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2459

    瀏覽量

    2737
收藏 人收藏

    評論

    相關(guān)推薦

    嵌入式和人工智能究竟是什么關(guān)系?

    嵌入式和人工智能究竟是什么關(guān)系? 嵌入式系統(tǒng)是一種特殊的系統(tǒng),它通常被嵌入到其他設(shè)備或機(jī)器中,以實(shí)現(xiàn)特定功能。嵌入式系統(tǒng)具有非常強(qiáng)的適應(yīng)性和靈活性,能夠根據(jù)用戶需求進(jìn)行定制化設(shè)計(jì)。它廣泛應(yīng)用于各種
    發(fā)表于 11-14 16:39

    PCM1861 INT腳究竟是輸出還是輸入?

    這個芯片activce或是idle. 是否有人解釋下,INT腳究竟是輸出還是輸入。我希望是輸出,我需要讀取到是否有analog audio輸入的信息。 或者,輸入輸出與否還要靠其他什么地方設(shè)置? 盼望有人回復(fù)解答,不勝感激!
    發(fā)表于 10-29 07:29

    超高頻讀寫器究竟是什么,能做什么?文讀懂!

    在物聯(lián)網(wǎng)技術(shù)日新月異的今天,超高頻讀寫器作為射頻識別(RFID)技術(shù)的重要組成部分,正逐漸滲透到我們生活的各個領(lǐng)域。那么,超高頻讀寫器究竟是什么?它又能做些什么呢?本文將帶您一探究竟、超高頻
    的頭像 發(fā)表于 10-23 14:41 ?217次閱讀
    超高頻讀寫器<b class='flag-5'>究竟是</b>什么,能做什么?<b class='flag-5'>一</b>文讀懂!

    揭秘貼片功率電感發(fā)燙究竟是不是燒壞了

    電子發(fā)燒友網(wǎng)站提供《揭秘貼片功率電感發(fā)燙究竟是不是燒壞了.docx》資料免費(fèi)下載
    發(fā)表于 09-30 14:44 ?0次下載

    電感器線徑究竟是粗好還是細(xì)好

    電子發(fā)燒友網(wǎng)站提供《電感器線徑究竟是粗好還是細(xì)好.docx》資料免費(fèi)下載
    發(fā)表于 09-20 11:25 ?0次下載

    tas5756m使用GPIO口加內(nèi)部PLL產(chǎn)生MCLK的方法究竟是怎么樣的?

    tas5756m使用GPIO口加內(nèi)部PLL產(chǎn)生MCLK的方法究竟是怎么樣的?
    發(fā)表于 08-19 06:06

    蟬聯(lián)“第”背后,是vivo的“快樂飛輪”正循環(huán)

    “快樂公司”究竟是如何脫離紅海競爭?
    的頭像 發(fā)表于 07-30 08:24 ?2921次閱讀
    蟬聯(lián)“第<b class='flag-5'>一</b>”背后,是vivo的“快樂飛輪”正循環(huán)

    請問cH340G的TX引腳電平究竟是3v還是5v?

    用CD34G來實(shí)現(xiàn)usb轉(zhuǎn)串口的時候,直接用usb口的5v作為電源電壓,它的tx引腳輸出的高電平究竟是5v還是3v,我實(shí)測是3v,但網(wǎng)上有的人是5v,想進(jìn)步得到大家的確認(rèn)。
    發(fā)表于 05-14 08:15

    工業(yè)物聯(lián)網(wǎng)究竟是什么呢?它又有哪些作用呢?

    隨著科技的快速發(fā)展,物聯(lián)網(wǎng)技術(shù)已經(jīng)逐漸滲透到我們生活的各個角落,而 工業(yè)物聯(lián)網(wǎng)(IIoT) 更是引領(lǐng)著工業(yè)領(lǐng)域的數(shù)字化轉(zhuǎn)型。那么,工業(yè)物聯(lián)網(wǎng)究竟是什么呢?它又有哪些作用呢?本文將對此進(jìn)行深度解析
    的頭像 發(fā)表于 04-22 15:26 ?399次閱讀

    STM32擦除后數(shù)據(jù)究竟是0x00還是0xff ?

    STM32擦除后數(shù)據(jù)究竟是0x00還是0xff ,百度查了許多發(fā)現(xiàn)大多數(shù)都是0xff的多,都說SD卡(TF)儲存介質(zhì)是Flash 所以擦除后為0xff,但是我遇到了讀出來的數(shù)據(jù)是0x00的情況,為什么呢
    發(fā)表于 04-18 07:59

    MOSFET的柵源振蕩究竟是怎么來的?柵源振蕩的危害什么?如何抑制

    MOSFET的柵源振蕩究竟是怎么來的呢?柵源振蕩的危害什么?如何抑制或緩解柵源振蕩的現(xiàn)象呢? MOSFET(金屬-氧化物-半導(dǎo)體場效應(yīng)晶體管)的柵源振蕩是指在工作過程中,出現(xiàn)的柵極與源極之間產(chǎn)生
    的頭像 發(fā)表于 03-27 15:33 ?1715次閱讀

    吸塵器究竟是如何替你“吃灰”的【其利天下技術(shù)】

    如今,吸塵器已成為大多數(shù)人居家必備的小家電產(chǎn)品,那么說起吸塵器,你對吸塵器有了解多少呢?不知道大家知不知道它的原理是什么?今天我們就來說說吸塵器究竟是如何替你“吃灰”的。
    的頭像 發(fā)表于 03-07 21:17 ?880次閱讀
    吸塵器<b class='flag-5'>究竟是</b>如何替你“吃灰”的【其利天下技術(shù)】

    小紅書搜索團(tuán)隊(duì)研究新框架:負(fù)樣本在大模型蒸餾中的重要性

    思維(CoT)提示的幫助下,大語言模型(LLMs)展現(xiàn)出強(qiáng)大的推理能力。然而,思維已被證明
    的頭像 發(fā)表于 01-30 10:37 ?1065次閱讀
    小紅書搜索團(tuán)隊(duì)研究新框架:負(fù)樣本在大<b class='flag-5'>模型</b>蒸餾中的重要性

    什么是激光二極管 激光二極管的三個引腳究竟是什么呢?

    什么是激光二極管 激光二極管的三個引腳究竟是什么呢?它的三個引腳又是用什么材質(zhì)制作的呢? 激光二極管是一種常見的半導(dǎo)體激光器,是將電能轉(zhuǎn)化為激光光能的電子元件。它是由半導(dǎo)體材料構(gòu)成的,通常是將P型
    的頭像 發(fā)表于 01-26 15:17 ?3725次閱讀

    “其貌不揚(yáng)”的共模電感究竟是如何做到抗干擾的呢?

    “其貌不揚(yáng)”的共模電感究竟是如何做到抗干擾的呢? 共模電感是一種用于濾除電子設(shè)備中的共模噪聲的重要元件,其主要作用是提供阻抗來濾除共模干擾信號。盡管外觀看起來“其貌不揚(yáng)”,但共模電感通過其特殊
    的頭像 發(fā)表于 01-11 16:27 ?782次閱讀
    主站蜘蛛池模板: 欧美网站色| 亚久久| 国产美女影院| 国产综合免费视频| 2021久久精品免费观看| 男人午夜小视频| 亚洲一区二区在线视频| 日本欧美一区二区三区视频| 国产成人系列| 亚洲jizzjizz妇女| 天堂网2021天堂手机版丶| 日本免费观看网站| 免费成人看片| 国产精品视频你懂的| 亚洲免费色视频| 免费福利影院| 看5xxaaa免费毛片| 最近2018中文字幕免费看2019| 午夜视频一区二区| 天天视频免费入口| 国产精品久久久亚洲456| 69pao强力打造在线| 成人中文在线| 上课被同桌强行摸下面小黄文| 你懂的亚洲| 99伊人| 欧美大黄| 欧美另类69| 2018国产大陆天天弄| 夜夜春宵翁熄性放纵30| 一级片aaaaaa| 欧美人成网站免费大全| 俄罗斯一级成人毛片| 手机看片1024精品日韩| 2019天天干天天操| 国产性大片黄在线观看在线放| 四虎成人免费观看在线网址| 狠狠色丁香婷婷综合激情| 午夜tv| dy888午夜秋霞影院不卡| 一级毛片aaa片免费观看|