最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

LDPC 軟判決算法-- 引入Tanner圖

2022-08-30 23:57 作者:樂吧的數(shù)學(xué)  | 我要投稿

經(jīng)過前面多篇文章和視頻的講解,我們已經(jīng)清楚地了解了 LDPC 譯碼的流程和背后的邏輯思想。現(xiàn)在,我們可以引入 Tanner 圖,來為 LDPC 譯碼算法做一個(gè)圖形化的抽象和理解。我覺得,在理解了譯碼算法的流程之后,再引入 Tanner 圖,就比較容易理解 Tanner 圖的作用,有一個(gè)更清晰的圖形化的理解,方便我們記憶 LDPC 譯碼的流程。


(錄制的視頻:https://www.bilibili.com/video/BV1iY4y1u7Gi/

我們知道,譯碼算法,不管是用 Log 形式的還是不用 Log 形式的,都有兩個(gè)主要的步驟和思想:



1)校驗(yàn)方程成立與否的概率或者某種度量

2)比特取值的概率或者某種度量



而相互迭代這兩個(gè)步驟,逐步逼近成功譯碼這個(gè)理想的目標(biāo)。所以,我們可以把步驟 1) 的結(jié)果,稱之為校驗(yàn),則在 Tanner 圖中引入校驗(yàn)節(jié)點(diǎn);步驟 2)的結(jié)果,稱之為數(shù)據(jù)或者比特,在 Tanner 圖中引入變量節(jié)點(diǎn)。

在這兩種節(jié)點(diǎn)之間,引入連線,規(guī)則是:某個(gè)比特參與某個(gè)校驗(yàn)方程,則在對(duì)應(yīng)的比特節(jié)點(diǎn)和校驗(yàn)節(jié)點(diǎn)之間引入連線,表示一種相互關(guān)系:比特參與校驗(yàn)方程,校驗(yàn)方程含有比特。

這個(gè)一般稱之為 Tanner 圖,也稱之為二分圖,這個(gè)圖本身,并不是算法的精確表達(dá),而是對(duì)算法中各種角色之間關(guān)系的一種形象表達(dá),至于這種表示的背后,還需要嚴(yán)格的數(shù)學(xué)推導(dǎo)作為支撐。即,角色之間的依賴關(guān)系是有什么樣的數(shù)學(xué)公式來描述的。



本篇文章都是以這個(gè)校驗(yàn)矩陣為例子。


A%20%3D%20%5Cbegin%7Bbmatrix%7D%0A%20%201%26%201%20%26%201%20%26%200%20%26%200%20%26%201%20%26%201%20%26%200%20%26%200%20%26%201%5C%5C%0A%20%201%26%200%20%26%201%20%26%200%20%26%201%20%26%201%20%26%200%20%26%201%20%26%201%20%26%200%5C%5C%0A%20%200%26%200%20%26%201%20%26%201%20%26%201%20%26%200%20%26%201%20%26%200%20%26%201%20%26%201%5C%5C%0A%20%200%26%201%20%26%200%20%26%201%20%26%201%20%26%201%20%26%200%20%26%201%20%26%200%20%26%201%5C%5C%0A%20%201%26%201%20%26%200%20%26%201%20%26%200%20%26%200%20%26%201%20%26%201%20%26%201%20%26%200%0A%5Cend%7Bbmatrix%7D


我們譯碼出來的碼字表示成向量形式:
c%3D%5Cbegin%7Bbmatrix%7D%0A%20%20c_1%20%26%20c_2%20%26%20c_3%20%26%20c_4%20%26%20c_5%20%26%20c_6%20%26%20c_7%20%20%26%20c_8%20%26%20c_9%20%26%20c_%7B10%7D%0A%5Cend%7Bbmatrix%7D


這個(gè)譯碼出來的碼字,不是指發(fā)送的正確的碼字,是表示我們待譯碼出來的,例如,我們可能想評(píng)估??c_1%3D1 的可能性(概率)。

我們把接收到的數(shù)據(jù)表示為一個(gè)向量:
r%3D%5Cbegin%7Bbmatrix%7D%0A%20%20r_1%20%26%20r_2%20%26%20r_3%20%26%20r_4%20%26%20r_5%20%26%20r_6%20%26%20r_7%20%20%26%20r_8%20%26%20r_9%20%26%20r_%7B10%7D%0A%5Cend%7Bbmatrix%7D


根據(jù)線性分組碼相關(guān)的原理,我們知道有如下的校驗(yàn)方程:
z%20%3D%20c%20A%5ET

計(jì)算后的結(jié)果 z,是一個(gè)含有5個(gè)元素的向量,記為:

z%20%3D%20%5Cbegin%7Bbmatrix%7D%0A%20%20z_1%26%20z_2%20%26%20z_3%20%26%20z_4%20%26%20z_5%0A%5Cend%7Bbmatrix%7D


為了易于理解,我們把上面這個(gè)矩陣形式的方程,展開成 5 個(gè)校驗(yàn)方程:

%5Cbegin%7Beqnarray%7D%0Az_1%20%26%3D%20c_1%20%2B%20c_2%20%2B%20c_3%20%2B%20c_6%20%2B%20c_7%20%2B%20c_%7B10%7D%20%5C%5C%0Az_2%20%26%3D%20c_1%20%2B%20c_3%20%2B%20c_5%20%2B%20c_6%20%2B%20c_8%20%2B%20c_%7B9%7D%20%5C%5C%0Az_3%20%26%3D%20c_3%20%2B%20c_4%20%2B%20c_5%20%2B%20c_7%20%2B%20c_9%20%2B%20c_%7B10%7D%20%5C%5C%0Az_4%20%26%3D%20c_2%20%2B%20c_4%20%2B%20c_5%20%2B%20c_6%20%2B%20c_8%20%2B%20c_%7B10%7D%20%5C%5C%0Az_5%20%26%3D%20c_1%20%2B%20c_2%20%2B%20c_4%20%2B%20c_7%20%2B%20c_8%20%2B%20c_%7B9%7D%0A%5Cend%7Beqnarray%7D


那么,用 Tanner 圖來表示這些依賴關(guān)系,可以表示成下圖:


兩種變量節(jié)點(diǎn)間的關(guān)系,可以用這個(gè)思想來描述:校驗(yàn)節(jié)點(diǎn)(校驗(yàn)方程)把自己的某種度量信息告知這個(gè)校驗(yàn)方程含有的比特對(duì)應(yīng)的變量節(jié)點(diǎn),同理,變量節(jié)點(diǎn)也把自己取值的概率信息的某種度量也發(fā)給包含這個(gè)比特的校驗(yàn)方程對(duì)應(yīng)的校驗(yàn)節(jié)點(diǎn)。



我們之前推導(dǎo)的 LDPC 譯碼都是分兩個(gè)主要步驟在迭代:用比特的概率信息估計(jì)校驗(yàn)方程的概率信息,然后用校驗(yàn)方程的信息更新比特的概率信息。這個(gè)過程,在 Tanner 圖上來描述:變量節(jié)點(diǎn)的信息發(fā)送到與之相連的校驗(yàn)節(jié)點(diǎn),校驗(yàn)節(jié)點(diǎn)據(jù)此計(jì)算出自己的信息,然后,校驗(yàn)節(jié)點(diǎn)把這個(gè)信息發(fā)送給與之相連的變量節(jié)點(diǎn)。

在 Tanner 圖的表示中,則問題就變成:

1)節(jié)點(diǎn)之間發(fā)送的信息,是什么樣的信息?

2)各個(gè)節(jié)點(diǎn)收到發(fā)來的信息后,如何計(jì)算自己的信息,或者說如何計(jì)算將要發(fā)出去的信息?



這兩個(gè)問題的回答,都依賴于具體的算法,所以,不同的算法,上面兩個(gè)問題的答案也不盡相同。我們之前講的兩種算法,就有兩種不同的答案。



1. 節(jié)點(diǎn)之間發(fā)送的信息,是什么樣的信息?



對(duì)于不用? log likelihood ratio 形式的算法

?校驗(yàn)節(jié)點(diǎn) m 向變量節(jié)點(diǎn) n 發(fā)送的信息:

r_%7Bmn%7D(x)%3Dp(z_m%3D0%7Cc_n%3Dx%2Cr)%20%3D%0A%20%20%20%20%20%20%5Csum_%7B%5C%7B%20%5C%7B%20x_%7B%5Cgrave%7Bn%7D%7D%2C%5Cspace%20%5Cgrave%7Bn%7D%20%5Cin%20N_%7Bm%2Cn%7D%5C%7D%3A%20x%3D%5Csum_l%20x_l%5C%7D%7D%0A%20%20%20%20%20%20%5Cquad%20%5Cprod_%7Bl%20%5Cin%20N_%7Bm%2Cn%7D%7Dp(c_l%3Dx_l%7Cr)



例如:

r_%7B25%7D(x)%3Dp(z_2%3D0%7Cc_5%3Dx%2Cr)%20%3D%0A%20%20%20%20%20%20%5Csum_%7B%5C%7Bx_1%2Bx_3%2Bx_6%2Bx_8%2Bx_9%3Dx%5C%7D%7D%0A%20%20%20%20%20%20%5Cquad%20%5Cprod_%7Bl%20%5Cin%20%5C%7B1%2C3%2C6%2C8%2C9%20%5C%7D%7Dp(c_l%3Dx_l%7Cr)%20%20%5C%5C%0A%20%20%20%20%20%20%20%20%20%20%20%20%5Csum_%7B%5C%7Bx_1%2Bx_3%2Bx_6%2Bx_8%2Bx_9%3Dx%5C%7D%7D%0A%20%20%20%20%20%20%5Cquad%20p(c_1%3Dx_l%7Cr)p(c_3%3Dx_3%7Cr)p(c_6%3Dx_6%7Cr)p(c_8%3Dx_8%7Cr)p(c_9%3Dx_9%7Cr)


當(dāng)然,這個(gè)公式的計(jì)算,是有一個(gè)簡(jiǎn)化的快速算法的,這里就不講了,有興趣的朋友可以看專欄往期內(nèi)容。



?變量節(jié)點(diǎn) n 向 校驗(yàn)節(jié)點(diǎn) m 發(fā)送的信息: r_%7Bm%2Cn%7D

q_%7Bmn%7D(x)%3Dp(c_n%3Dx%7C%5C%7Bz_%7Bm'%7D%3D0%5C%7D%2Cr)%20%3D%5Cfrac%7B1%7D%7Bp(%5C%7Bz_%7Bm'%7D%3D0%5C%7D%7Cr)%7Dp(c_n%3Dx%7Cr_n)%5Cprod_%7Bm'%7D%20p(z_%7Bm'%7D%3D0%7Cc_n%3Dx%2Cr)




例如:

q_%7B21%7D(x)%3Dp(c_1%3Dx%7C%5C%7Bz_%7Bm'%7D%3D0%2Cm'%5Cin%20%5C%7B1%2C5%5C%7D%5C%7D%2Cr)%20%3D%5Cfrac%7B1%7D%7Bp(%5C%7Bz_%7Bm'%7D%3D0%2Cm'%5Cin%20%5C%7B1%2C5%5C%7D%5C%7D%7Cr)%7Dp(c_1%3Dx%7Cr_n)%5Cprod_%7Bm'%5Cin%20%5C%7B1%2C5%5C%7D%5C%7D%7D%20p(z_%7Bm'%7D%3D0%7Cc_1%3Dx%2Cr)%20%20%20%5C%5C%0A%5Cfrac%7B1%7D%7Bp(%5C%7Bz_%7Bm'%7D%3D0%2Cm'%5Cin%20%5C%7B1%2C5%5C%7D%5C%7D%7Cr)%7Dp(c_1%3Dx%7Cr_n)%20%20p(z_1%3D0%7Cc_1%3Dx%2Cr)%20%20p(z_5%3D0%7Cc_1%3Dx%2Cr)%20







?對(duì)于 log likelihood ratio 形式的算法:

校驗(yàn)節(jié)點(diǎn) m 向變量節(jié)點(diǎn) n 發(fā)送的信息:

%5Ceta_%7Bm%2Cn%7D%5E%7B%5Bl%5D%7D%3D-%202%20tanh%5E%7B-1%7D(%5Cprod_%7Bj%20%5Cin%20N_%7Bm%2Cn%7D%20%7D%20tanh(-%5Cfrac%7B%5Clambda%5E%7B%5Bl%5D%7D(c_j%7C%5C%7Br_i%2Ci%20%5Cneq%20n%5C%7D)%7D%7B2%7D))


例如:
%5Ceta_%7B2%2C5%7D%5E%7B%5Bl%5D%7D%3D-%202%20tanh%5E%7B-1%7D(%5Cprod_%7Bj%20%5Cin%20%5C%7B1%2C3%2C6%2C8%2C9%5C%7D%20%7D%20tanh(-%5Cfrac%7B%5Clambda%5E%7B%5Bl%5D%7D(c_j%7C%5C%7Br_i%2Ci%20%5Cneq%205%5C%7D)%7D%7B2%7D))%20%20%5C%5C%20%20%20%20%5C%5C%0A%3D-%202%20tanh%5E%7B-1%7D(%20%20%5C%5C%0A%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20tanh(-%5Cfrac%7B%5Clambda%5E%7B%5Bl%5D%7D(c_1%7C%5C%7Br_i%2Ci%20%5Cneq%205%5C%7D)%7D%7B2%7D)%20%5C%5C%0A%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20tanh(-%5Cfrac%7B%5Clambda%5E%7B%5Bl%5D%7D(c_3%7C%5C%7Br_i%2Ci%20%5Cneq%205%5C%7D)%7D%7B2%7D)%5C%5C%0A%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20tanh(-%5Cfrac%7B%5Clambda%5E%7B%5Bl%5D%7D(c_6%7C%5C%7Br_i%2Ci%20%5Cneq%205%5C%7D)%7D%7B2%7D)%5C%5C%0A%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20tanh(-%5Cfrac%7B%5Clambda%5E%7B%5Bl%5D%7D(c_8%7C%5C%7Br_i%2Ci%20%5Cneq%205%5C%7D)%7D%7B2%7D)%5C%5C%0A%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20tanh(-%5Cfrac%7B%5Clambda%5E%7B%5Bl%5D%7D(c_9%7C%5C%7Br_i%2Ci%20%5Cneq%205%5C%7D)%7D%7B2%7D)%5C%5C%0A%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20)%20



變量節(jié)點(diǎn) n 向 校驗(yàn)節(jié)點(diǎn) m 發(fā)送的信息:

%5Clambda%5E%7B%5Bl%5D%7D(c_n%7Cr)%20%3D%20log%5Cfrac%7Bp(c_n%3D1%7Cr)%7D%7Bp(c_n%3D0%7Cr)%7D%20%3D%5Cfrac%7B2%7D%7B%5Csigma%5E2%7Dr_n%20%2B%20%5Csum_m%20%5Ceta%5E%7B%5Bl%5D%7D_%7Bm%2Cn%7D%20%20%20%5C%5C%20%20%5C%5C%0A%5Clambda%5E%7B%5Bl%2B1%5D%7D(c_j%7C%5C%7Br_i%2Ci%20%5Cneq%20n%5C%7D)%20%3D%20%5Clambda%5E%7B%5Bl%5D%7D(c_j%7Cr)%20-%5Ceta_%7Bm%2Cj%7D%5E%7B%5Bl%5D%7D


例如:

???? 變量節(jié)點(diǎn) 1 發(fā)給校驗(yàn)節(jié)點(diǎn) 2 的信息:

%5Clambda%5E%7B%5Bl%5D%7D(c_1%7Cr)%20%3D%20log%5Cfrac%7Bp(c_1%3D1%7Cr)%7D%7Bp(c_1%3D0%7Cr)%7D%20%3D%5Cfrac%7B2%7D%7B%5Csigma%5E2%7Dr_n%20%2B%20%5Csum_%7Bm%20%5Cin%20%5C%7B1%2C2%2C5%5C%7D%7D%20%5Ceta%5E%7B%5Bl%5D%7D_%7Bm%2C1%7D%20%20%20%5C%5C%20%20%5C%5C%0A%5Clambda%5E%7B%5Bl%2B1%5D%7D(c_1%7C%5C%7Br_i%2Ci%20%5Cneq%20n%5C%7D)%20%3D%20%5Clambda%5E%7B%5Bl%5D%7D(c_1%7Cr)%20-%5Ceta_%7B2%2C1%7D%5E%7B%5Bl%5D%7D


2. 對(duì)于第二個(gè)問題的回答,即各個(gè)節(jié)點(diǎn)收到發(fā)來的信息后,如何計(jì)算自己的信息,由于自己的消息,就是發(fā)給另外一種節(jié)點(diǎn)的信息,在回答第一個(gè)問題時(shí),已經(jīng)隱含了這個(gè)問題的答案。

變量節(jié)點(diǎn)收到校驗(yàn)節(jié)點(diǎn)的消息之后,計(jì)算出變量節(jié)點(diǎn)的信息,在非 log likelihood ratio算法中用的公式為:
q_%7Bmn%7D(x)%3Dp(c_n%3Dx%7C%5C%7Bz_%7Bm'%7D%3D0%5C%7D%2Cr)%20%3D%5Cfrac%7B1%7D%7Bp(%5C%7Bz_%7Bm'%7D%3D0%5C%7D%7Cr)%7Dp(c_n%3Dx%7Cr_n)%5Cprod_%7Bm'%7D%20p(z_%7Bm'%7D%3D0%7Cc_n%3Dx%2Cr)


所以,變量節(jié)點(diǎn)是對(duì)收到的來自校驗(yàn)節(jié)點(diǎn)的信息,用連乘的方式來計(jì)算

而在 log likelihood ratio 算法中,因?yàn)槿×?log ,所以,變成了用連加來計(jì)算

%5Clambda%5E%7B%5Bl%5D%7D(c_n%7Cr)%20%3D%20log%5Cfrac%7Bp(c_n%3D1%7Cr)%7D%7Bp(c_n%3D0%7Cr)%7D%20%3D%5Cfrac%7B2%7D%7B%5Csigma%5E2%7Dr_n%20%2B%20%5Csum_m%20%5Ceta%5E%7B%5Bl%5D%7D_%7Bm%2Cn%7D%20%20%20%5C%5C%20%20%5C%5C%0A%5Clambda%5E%7B%5Bl%2B1%5D%7D(c_j%7C%5C%7Br_i%2Ci%20%5Cneq%20n%5C%7D)%20%3D%20%5Clambda%5E%7B%5Bl%5D%7D(c_j%7Cr)%20-%5Ceta_%7Bm%2Cj%7D%5E%7B%5Bl%5D%7D



校驗(yàn)節(jié)點(diǎn)收到變量節(jié)點(diǎn)的消息之后,計(jì)算出校驗(yàn)節(jié)點(diǎn)的信息,在非 log likelihood ratio算法中用的公式為:

r_%7Bmn%7D(x)%3Dp(z_m%3D0%7Cc_n%3Dx%2Cr)%20%3D%0A%20%20%20%20%20%20%5Csum_%7B%5C%7B%20%5C%7B%20x_%7B%5Cgrave%7Bn%7D%7D%2C%5Cspace%20%5Cgrave%7Bn%7D%20%5Cin%20N_%7Bm%2Cn%7D%5C%7D%3A%20x%3D%5Csum_l%20x_l%5C%7D%7D%0A%20%20%20%20%20%20%5Cquad%20%5Cprod_%7Bl%20%5Cin%20N_%7Bm%2Cn%7D%7Dp(c_l%3Dx_l%7Cr)


則對(duì)收到的各種變量節(jié)點(diǎn)的信息的組合,先做連乘,然后再做連加。

而在 log likelihood ratio 算法中,用 tanh 函數(shù)來表示,更為復(fù)雜的一種計(jì)算公式。

%5Ceta_%7Bm%2Cn%7D%5E%7B%5Bl%5D%7D%3D-%202%20tanh%5E%7B-1%7D(%5Cprod_%7Bj%20%5Cin%20N_%7Bm%2Cn%7D%20%7D%20tanh(-%5Cfrac%7B%5Clambda%5E%7B%5Bl%5D%7D(c_j%7C%5C%7Br_i%2Ci%20%5Cneq%20n%5C%7D)%7D%7B2%7D))


LDPC 軟判決算法-- 引入Tanner圖的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國家法律
买车| 通化县| 大埔县| 石泉县| 尖扎县| 年辖:市辖区| 留坝县| 饶河县| 株洲县| 济源市| 原平市| 海伦市| 青铜峡市| 芮城县| 武定县| 英吉沙县| 文昌市| 桐庐县| 桂林市| 金平| 建昌县| 沅江市| 元朗区| 通化市| 浮梁县| 崇义县| 北宁市| 枞阳县| 衡水市| 长子县| 嫩江县| 游戏| 通化市| 章丘市| 江城| 天津市| 南投市| 泸水县| 云林县| 堆龙德庆县| 衡东县|