在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度解讀VHDL語言的卷積碼和Viterbi譯碼的實(shí)現(xiàn)

電子工程師 ? 來源:微型機(jī)與應(yīng)用 ? 作者:陶 杰 王 欣 張?zhí)燧x ? 2021-05-12 15:22 ? 次閱讀

摘 要: 介紹并用VHDL語言實(shí)現(xiàn)了卷積編碼和維特比譯碼。根據(jù)編碼器特征設(shè)計(jì)了一種具有針對(duì)性的簡潔的維特比譯碼器結(jié)構(gòu),并通過ModelSim平臺(tái)驗(yàn)證了該設(shè)計(jì)的正確性。

卷積碼自1955年由愛里斯(Elias)提出以來,因其良好的糾錯(cuò)能力,已經(jīng)在現(xiàn)代通信系統(tǒng)中得到了廣泛應(yīng)用,比如,電力系統(tǒng)通信、衛(wèi)星通信、移動(dòng)通信等。Viterbi譯碼是1967年維特比(Viterbi)基于Viterbi算法提出的,這種譯碼算法是基于碼的網(wǎng)格(trellis)圖基礎(chǔ)之上的一種最大似然譯碼算法,是一種最佳的概率譯碼算法[1]。本設(shè)計(jì)是在認(rèn)真研究了卷積編碼和維特比譯碼原理以后,用VHDL語言實(shí)現(xiàn)了(2,1,2)卷積編碼,并根據(jù)這種編碼特性簡化了相應(yīng)的維特比譯碼器結(jié)構(gòu)。

1 卷積編碼

卷積碼是一種有限記憶系統(tǒng),它與分組碼類似,也是先將信息序列分隔成長度為k的一個(gè)個(gè)分組;不同的是,某一時(shí)刻的編碼輸出不僅取決于本時(shí)刻的分組,而且取決于本時(shí)刻以前的L個(gè)分組[2],稱L+1為約束長度。一般情況下卷積碼寫成(n,k,L)的形式,其中:n表示編碼器有n位編碼輸出,k表示編碼器有k位輸入。如果用R表示卷積編碼的效率,則R=k/n。

圖1是(n,k,L)卷積編碼器的一般結(jié)構(gòu)圖[2]。從該圖可以看出,串行信號(hào)可由串/并轉(zhuǎn)換器轉(zhuǎn)換成L個(gè)分組,并按位存儲(chǔ)到k-1個(gè)存儲(chǔ)器中,存儲(chǔ)器中的每一個(gè)單元與線性組合器的連線表示該單元數(shù)據(jù)參與了線性組合計(jì)算,但實(shí)際中是否參與取決于線性組合系數(shù)。

在二進(jìn)制系統(tǒng)中,該系數(shù)為“0”和“1”,當(dāng)系數(shù)為“0”時(shí),表示該單元數(shù)據(jù)沒參與線性組合計(jì)算;當(dāng)系數(shù)為“1”時(shí),表示該單元數(shù)據(jù)參與了線性組合計(jì)算。并/串轉(zhuǎn)換器可將線性組合器計(jì)算得到的并行結(jié)果轉(zhuǎn)化成串行輸出。

o4YBAGCbgbGADUrNAADUZXct950313.png

圖1示意的是卷積編碼器的一般結(jié)構(gòu),實(shí)際應(yīng)用時(shí)可根據(jù)需求進(jìn)行相應(yīng)改變。例如圖2是(2,1,2)碼的編碼器,由于只有一位輸入,串/并轉(zhuǎn)換器自然不存在,線性組合器就是兩個(gè)模2加法器,存儲(chǔ)單元由兩個(gè)移位寄存器組成,其生成多項(xiàng)式矩陣可表示為:G(D)=[1+D+D2,1+D2]。

圖3是圖2所示卷積碼的狀態(tài)轉(zhuǎn)移圖,根據(jù)這個(gè)狀態(tài)轉(zhuǎn)移圖用VHDL語言實(shí)現(xiàn)卷積編碼。圖3中S0、S1、S2、S3表示該卷積碼的4個(gè)不同狀態(tài),編程時(shí)用狀態(tài)機(jī)完成狀態(tài)之間的跳變和編碼輸出。

10601074305040.gif

10601152305384.gif

部分程序如下:

……

if(clk1=′1′) then

state 《=next_state;

……

else

state 《=state;

……

case state is

when “00” =》

if(datain = ′0′) then

next_state 《= “00”;

enc_out 《= “00”;

else

next_state 《= “10”;

enc_out 《= “11”;

end if;

when “01” =》

……

其中,clk1為編碼時(shí)鐘(另一時(shí)鐘是碼輸入時(shí)鐘,為clk1的2倍頻),state為本次編碼狀態(tài),并根據(jù)它的值和數(shù)據(jù)輸入(datain)的值給出卷積碼的下一個(gè)狀態(tài)值(next_state)和編碼輸出值(enc_out)。如此往復(fù)循環(huán)下去,便可得到卷積碼。

2 維特比譯碼

維特比譯碼算法是一種最大似然譯碼算法。根據(jù)維特比譯碼算法的譯碼步驟,譯碼算法的實(shí)現(xiàn)一般包括:加比選模塊、度量查找表、狀態(tài)變量存儲(chǔ)器等模塊,如圖4所示。本設(shè)計(jì)根據(jù)該卷積碼的特性,找到一種簡便的改進(jìn)譯碼方法。

10601432485479.gif

通過圖3可知,到達(dá)每一狀態(tài)的輸入碼均相同。例如,無論是由S0轉(zhuǎn)變成S1還是由S2轉(zhuǎn)變成S1,雖然編碼輸出段不一樣,但是碼輸入都是‘1’,其他狀態(tài)之間的轉(zhuǎn)變也是如此。因而,通過這個(gè)特征可以去掉該卷積碼的維特比譯碼實(shí)現(xiàn)時(shí)的度量查找表和路徑存儲(chǔ)器等模塊,只保留加比選模塊即可,如圖5所示,從而簡化了維特比譯碼算法的實(shí)現(xiàn)。再結(jié)合該卷積碼的狀態(tài)轉(zhuǎn)移圖,畫出相應(yīng)籬笆圖,如圖6所示。

10601563831092.gif

在這個(gè)譯碼器結(jié)構(gòu)中,“加”是指計(jì)算在該時(shí)刻實(shí)際編碼輸入與圖3中狀態(tài)轉(zhuǎn)移編碼輸出之間的漢明距,“比”是指比較出上述漢明距最小距離,“選”是指通過“比”的結(jié)果選擇一位最佳碼字輸出。按照這一結(jié)構(gòu),在本時(shí)刻即可得到一位最佳輸出碼字。

例如,在L=0時(shí)刻時(shí),實(shí)際編碼輸入若為“01”或“10”,則可以通過判斷L=1時(shí)刻的實(shí)際編碼輸入來選擇一位最佳碼字輸出。本設(shè)計(jì)運(yùn)用VHDL語言編程實(shí)現(xiàn)這一譯碼過程時(shí),采用了兩個(gè)時(shí)鐘,在一個(gè)clk周期內(nèi)將16 bit卷積碼輸入到譯碼器內(nèi),然后再由其8倍頻時(shí)鐘clk1完成“加”、“比”、“選”、譯碼輸出等動(dòng)作。由于信號(hào)只能采用阻塞賦值,因而,“加”與“比”、“選”分別在兩個(gè)clk1時(shí)鐘周期內(nèi)完成,并且“加”先于后兩者1個(gè)時(shí)鐘周期。

3 仿真結(jié)果

3.1 卷積編碼仿真結(jié)果

依據(jù)“卷積編碼”單元分析,運(yùn)用VHDL語言在ModelSim下實(shí)現(xiàn)的圖2編碼器仿真結(jié)果,如圖7所示,當(dāng)輸入碼分別為:10111000、11000000、01001000時(shí),對(duì)應(yīng)輸出碼序列:1110000110011100、1101011100000000、0011101111101100。

可以通過輸入碼和生成多項(xiàng)式矩陣來驗(yàn)證此卷積編碼是正確有效的。圖7中dataouta為編碼輸出端,clr為編碼器清零端,datain為串行碼輸入端,clk為碼輸入時(shí)鐘,clk1為編碼時(shí)鐘。

3.2 維特比譯碼仿真結(jié)果

依據(jù)“維特比譯碼”單元分析,運(yùn)用VHDL語言在ModelSim下實(shí)現(xiàn)的圖5譯碼器仿真結(jié)果如圖8所示,當(dāng)輸入碼分別為:1110000110011100、1101011100000000、0011101111101100時(shí),對(duì)應(yīng)輸出碼序列為:10111000、11000000、01001000。

圖8中c_out為譯碼輸出端,clr_viterbi_acs為譯碼器清零端,c_in為卷積碼并行輸入端,clk為譯碼處理時(shí)鐘,clk2為并行碼輸入時(shí)鐘。

10601758053510.gif

本文利用VHDL語言在ModelSim平臺(tái)上實(shí)現(xiàn)與驗(yàn)證了(2,1,2)卷積編碼和維特比譯碼,并根據(jù)給出的編碼器的特征簡化了譯碼器結(jié)構(gòu),從而減小了用VHDL語言編程的復(fù)雜度,同時(shí)也提高了程序的健壯性。該設(shè)計(jì)可以為同類型采用卷積編碼和維特比譯碼的方案提供一定的幫助。

作者:陶 杰 王 欣 張?zhí)燧x

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 轉(zhuǎn)換器
    +關(guān)注

    關(guān)注

    27

    文章

    8736

    瀏覽量

    147556
  • 存儲(chǔ)器
    +關(guān)注

    關(guān)注

    38

    文章

    7519

    瀏覽量

    164085
  • vhdl
    +關(guān)注

    關(guān)注

    30

    文章

    817

    瀏覽量

    128209
  • 卷積編碼
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    2662
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    卷積神經(jīng)網(wǎng)絡(luò)在自然語言處理中的應(yīng)用

    自然語言處理是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)作為一種強(qiáng)大的模型,在圖像識(shí)別和語音處理等領(lǐng)域取
    的頭像 發(fā)表于 11-15 14:58 ?311次閱讀

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    深度學(xué)習(xí)近年來在多個(gè)領(lǐng)域取得了顯著的進(jìn)展,尤其是在圖像識(shí)別、語音識(shí)別和自然語言處理等方面。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一個(gè)分支,因其在圖像處理任務(wù)中的卓越性能而受到廣泛關(guān)注。
    的頭像 發(fā)表于 11-15 14:52 ?378次閱讀

    如何在Tensorflow中實(shí)現(xiàn)卷積

    在TensorFlow中實(shí)現(xiàn)卷積(也稱為轉(zhuǎn)置卷積或分?jǐn)?shù)步長卷積)是一個(gè)涉及多個(gè)概念和步驟的過程。反卷積
    的頭像 發(fā)表于 07-14 10:46 ?673次閱讀

    深度學(xué)習(xí)中反卷積的原理和應(yīng)用

    像分割、圖像重建和生成對(duì)抗網(wǎng)絡(luò)(GANs)等,反卷積展現(xiàn)出了其獨(dú)特的優(yōu)勢和廣泛的應(yīng)用前景。本文將詳細(xì)探討深度學(xué)習(xí)中的反卷積技術(shù),包括其定義、原理、實(shí)現(xiàn)方式、應(yīng)用場景以及與其他上采樣方法
    的頭像 發(fā)表于 07-14 10:22 ?2088次閱讀

    基于PyTorch的卷積核實(shí)例應(yīng)用

    深度學(xué)習(xí)和計(jì)算機(jī)視覺領(lǐng)域,卷積操作是一種至關(guān)重要的技術(shù),尤其在圖像處理和特征提取方面發(fā)揮著核心作用。PyTorch作為當(dāng)前最流行的深度學(xué)習(xí)框架之一,提供了強(qiáng)大的張量操作功能和靈活的API,使得
    的頭像 發(fā)表于 07-11 15:19 ?508次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本概念、原理及特點(diǎn)

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)算法,它在圖像識(shí)別、視頻分析、自然語言處理等領(lǐng)域有著廣泛的應(yīng)用。本文將詳細(xì)介紹卷積
    的頭像 發(fā)表于 07-11 14:38 ?1164次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)概述及Python實(shí)現(xiàn)

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)是一類包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks),是
    的頭像 發(fā)表于 07-04 14:22 ?517次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)示例

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,主要用于處理具有網(wǎng)格結(jié)構(gòu)的數(shù)據(jù),如圖像。CNN通過卷積層自動(dòng)提取圖像特征,然后通過全連接層進(jìn)行
    的頭像 發(fā)表于 07-03 10:51 ?482次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)原理

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的
    的頭像 發(fā)表于 07-03 10:49 ?592次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和工作原理

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的
    的頭像 發(fā)表于 07-03 09:38 ?777次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的是什么

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的
    的頭像 發(fā)表于 07-03 09:15 ?458次閱讀

    深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    到自然語言處理,深度學(xué)習(xí)和CNN正逐步改變著我們的生活方式。本文將深入探討深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)的基本概念、工作原理及其在多個(gè)領(lǐng)域的應(yīng)用,并展望其未來的發(fā)展趨勢。
    的頭像 發(fā)表于 07-02 18:19 ?961次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理與實(shí)現(xiàn)

    1.卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語言處理等領(lǐng)域。 卷積神經(jīng)網(wǎng)絡(luò)是一種前饋
    的頭像 發(fā)表于 07-02 16:47 ?649次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)及其功能

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的基
    的頭像 發(fā)表于 07-02 14:45 ?2455次閱讀

    verilog實(shí)現(xiàn)卷積運(yùn)算

    在Verilog中實(shí)現(xiàn)卷積運(yùn)算,你可以使用以下示例代碼。這里假設(shè)輸入數(shù)據(jù)是有符號(hào)8位數(shù),輸出數(shù)據(jù)也是有符號(hào)8位數(shù)。卷積在數(shù)字信號(hào)處理中通常指的是兩個(gè)序列的逐元素乘積的和,也就是點(diǎn)乘。 module
    發(fā)表于 03-26 07:51
    主站蜘蛛池模板: 欧美在线成人午夜影视| 色免费观看| 色多多在线| 男人j进入女人免费视频| 久久久免费精品| 91九色在线视频| 久久a毛片| 色老头久久网| 日本精品三级| 五月亭亭激情五月| 乱高h辣黄文np公交车| 丁香六月啪啪| 国产98在线传媒在线视频| 亚洲欧美圣爱天天综合| 狠狠尻| 免费中国一级啪啪片| 特级黄视频| 亚洲三级电影在线播放| 乱人伦小说短篇| 亚洲国产精品久久久久婷婷老年| 久久精品国产99久久72| 伊人网成人| aaaaa毛片| 久久99国产精品免费观看| 亚洲怡红院在线观看| 在线播放一区二区三区| 国产叼嘿免费视频网站| 视频一区视频二区在线观看| h小视频在线| 黄色在线播放网站| 好爽好紧好大的免费视频国产| 唐人社电亚洲一区二区三区| 特黄特色大片免费播放路01| 亚洲欧美高清| 欧美成人精品一级高清片| 模特视频一二三区| 国产精品你懂的| 澳门三级bd高清| 第一福利在线| 夜夜se| 天天插天天操天天干|