傳紙條被發(fā)現(xiàn),一看竟寫著...

不知道大家以前有沒有用過 / 見過這個玩意...

當(dāng)年偷偷寫的日記和小秘密,為了防止被同學(xué)老師家長偷看,都寫在這樣的本子里面。這種本子的密碼少則四五位,多的有七八位,除非知道這個密碼鎖的密碼,不然根本無法打開。
上學(xué)的時候誰又沒有在課上偷偷地傳過小紙條呢?可能很多人還挺享受那種在老師眼皮子底下偷偷摸摸說悄悄話的快感。其實說起來,這種「傳紙條」應(yīng)該也算是大家最早的對保密通訊的需求了。為了防止傳紙條的途中被其它同學(xué)截獲獲取里面的內(nèi)容,可能有的人還要用密碼來加密一下。

從通信的角度來講,一個好的編碼方案可以在有效傳輸信息的同時大大降低傳輸所需要的代價。怎么才能科學(xué)地理解通信和編碼,以下小編將從字符編碼的角度來介紹幾種歷史上著名的編碼方案以及信息熵的概念。

摩爾斯電碼

1837 年,美國人塞穆爾·摩爾斯 (Samuel Morse)發(fā)明了電報,并和艾爾菲德·維爾 (Alfred Ville) 一起,共同發(fā)明了一套電碼以供電報配套使用。這套電碼就是赫赫有名的摩爾斯電碼 (Morse alphabet)。
這種古老而簡單的信號代碼主要由兩種基礎(chǔ)信號組成:短促的電信號「·」(讀作「嘀」)和保持一定時間的長信號「 —」(讀作「嗒」)。電影電視劇里勤奮的發(fā)報員每天嘀嘀嗒嗒響個不停就是在發(fā)電報。

按照點碼表所列出的組合,摩爾斯電碼可以構(gòu)成不同的字符,比如字母、數(shù)字和常用的標(biāo)點符號:

這些字符串連起來就組成了單詞,單詞串連變成句子。
每個不同的單位之間需要一定的停頓時間,否則就會引起歧義。比如“h”是“····”,而“i”是“··”,如果沒有停頓,連續(xù)兩個“i”就會是“····”,跟“h”就混淆了。
不同單位之間停頓的時間不相同。嘀=1t,嗒=3t,嘀嗒間=1t,字符間=3t,單詞間=7t。

著名的國際通用海灘求救信號就是采用摩爾斯電碼,運用燈光(比如手電筒)向遠處發(fā)射三短三長三短的光,即“··· ——— ··· ”。換成對應(yīng)的字母也就是“SOS”。至于為什么要采用這樣的一組光——當(dāng)然是因為最簡單最容易辨識??!

閱后作業(yè):請對小編說出以下摩爾斯電碼的解碼文:
·—·· ·· ···· ·— ·· ·—·· ·

ASCII 碼

20世紀(jì),隨著計算機的誕生,編碼在應(yīng)用階段上獲得了迅速的發(fā)展。由于笨笨的計算機只能存儲二進制數(shù)(高電平為1,低電平為0),人們決定開發(fā)一套通用的二進制編碼規(guī)則來相互通信。

就這樣,由美國國家標(biāo)準(zhǔn)學(xué)會制定的 ASCII (美國信息交換標(biāo)準(zhǔn)代碼,American Standard Code for Information Interchange)應(yīng)運而生。
ASCII 碼能夠用 7 個比特來表示不同的字符。每個 bit 可以有 0 和 1 兩種狀態(tài),因此 7 位二進制數(shù)能夠表示 128 種不同的字符,也就是表中的前面 0~127 種。里面包含了所有英文文字表達所需要的字符,英文國家們表示很滿意。
但這遠遠不能滿足廣大的非英文國家的需求。他們表示很不開心并增加了一個比特的位置,占領(lǐng)了后面的 128 個空位。于是,從 128 到 255 的這 128 個字符被用來表示他們的字母、符號和形狀,這些被稱為「擴展字符集」。

即使后來產(chǎn)生了各種花里胡哨的計算機編碼規(guī)則,ASCII 碼以其優(yōu)秀的實用性,仍然保留了下來。它通常保留在各種編碼規(guī)則的最開頭,占據(jù)最前面的 128 個位置。
在人看來非常簡單的單詞,在計算機眼中就變成了一大堆 0 和 1 的組合。當(dāng)然,由于計算機擁有強大的處理能力,這些數(shù)字也并不成問題。


閱后作業(yè):參考下圖,解碼以下 ASCII 碼文(一行一字):
01101110 01101001
01101000 01100101 01101110
01111001 01101111 01110101
01111000 01101001 01110101.


GBK 標(biāo)準(zhǔn)

后來,計算機終于來到了中國人民的手中。然而,大家發(fā)現(xiàn) ASCII 碼的 256 個坑位已經(jīng)全部被占用了。
但漢字總不能都用拼音表示吧,廣大 l n 不分的南方人民表示不同意。。。
于是,優(yōu)秀的中國選手自己制定了一套叫做 GBK(漢字內(nèi)碼擴展規(guī)范)的編碼方案,用兩個字節(jié)來表示一個漢字。

這套規(guī)則兼容了前面的一些編碼方案,用后面空余的位置收錄了 21003 個漢字,日常使用完全夠夠的了~
不過,當(dāng)時想要在電腦上顯示漢字,就必須裝上一個漢字系統(tǒng)。而當(dāng)時的大多數(shù)人對電腦仍然是一竅不通的,回去裝系統(tǒng)發(fā)現(xiàn)全是 bug 而且看都看不懂。。。
而且,不同的國家都開發(fā)了一套自己的編碼方案和文字系統(tǒng),導(dǎo)致不同國家的人之間無法互相通信。因此他們制定了一套統(tǒng)一的編碼規(guī)則——Unicode。

Unicode 碼

Unicode 又稱萬國碼、統(tǒng)一碼,為解決傳統(tǒng)字符編碼方案的局限而產(chǎn)生。聽起來就很厲害有沒有!

它把所有語言的字符都統(tǒng)一到一套公用的編碼,有一百萬多種字符,就像是一部世界語言通用字符字典。因此,在 Unicode 中,一個字符需要用三個字節(jié)來表示。
像一些簡單基礎(chǔ)的字符,比如 a、b、c 等等,1 個字節(jié)就能夠表示了。但是按照 Unicode 的規(guī)則,計算機必須再讀取兩個空字節(jié)填充在高字節(jié)位。比 GBK 多 1 個字節(jié),比 ASCII 多 2 個字節(jié)。。。
所以這個神級裝備還不如新手裝備的嗎。。

于是,智慧的人們不堪其辱地研發(fā)了 UTF-8 這種專門針對 Unicode 的可變長度編碼。它將Unicode 編碼進行再編碼,再進行傳輸,可以自動變長節(jié)省空間。
UTF-8 也成為現(xiàn)在程序猿們鐘愛的一種編碼形式啦~

信息熵

在上面的內(nèi)容中,我們介紹了很多編碼的內(nèi)容。但是同一份內(nèi)容,無論用什么編碼來進行「敘述」,其本身所包含的信息應(yīng)該是不變的。

在信息論中,人們使用熵(entropy)來度量接收到的每條消息中包含的信息的平均量,這也被稱為信息熵、信源熵等。這里的「消息」其實已經(jīng)不是我們?nèi)粘0l(fā)條微信,發(fā)條語音的那種消息了,而是可以更廣泛地理解為一件事情發(fā)生的概率分布,或者數(shù)據(jù)中的事件、樣本或者特征。

和熱力學(xué)里面的熵類似,這里的信息熵同樣可以理解為對不確定性的一種度量,因為一個消息來源越隨機,那么它的熵就越大。就像投擲一枚硬幣,其正反面出現(xiàn)的概率都相同,那么這時候它的熵就最大。反之,如果這枚硬幣很特殊,它的正面更重一些,因此在投擲以后,它正反兩面出現(xiàn)的概率不再一致,它的熵就會減小。這里的想法很簡單,因為正反兩面概率不再一致,這里發(fā)生了以前不會發(fā)生的事情,給我們提供了更多的信息,減少了不確定性。

在很多人見到信息熵的定義的時候一定都會有疑惑,明明是挺簡單的一個概念,為啥計算的公式這么復(fù)雜呢?又是對數(shù)又是相乘還要求和。

信息熵計算規(guī)則

其實藏在這個公式的背后的假設(shè)非常簡單:1. 信息熵的單位。2. 可加性。
無論怎么定義信息熵,我們都需要一個單位。一般情況下我們選取的單位為 bit,比特。也就是 H2(1/2, 1/2) = 1。實際上,信息熵的定義函數(shù)對于連續(xù)性也有一定的要求。對系統(tǒng)施加微擾,假設(shè)拋一枚硬幣正面朝上的概率變?yōu)榱?0.50000001,而反面朝上的概率變?yōu)榱?0.49999999。那么此時拋硬幣這件事情包含的信息熵應(yīng)該還是約為 1 bit。而不會變成 2 bit 或者其他的數(shù)值。用數(shù)學(xué)化一點的語言來說就是,H2(p, 1-p) 是關(guān)于 p 的連續(xù)函數(shù)。

在有了信息熵的單位以后,我們還需要知道不同系統(tǒng)之間的信息熵是怎么相加的,就像小時候?qū)W加法的時候老師教小朋友 2 個蘋果加 3 個蘋果等于幾個蘋果一樣。只不過這里關(guān)于信息熵的「加法公式」,會稍微比起 2 + 3 = 5 麻煩一點點。

對不同系統(tǒng)的信息熵進行求和的過程可以這么理解,還是用拋硬幣這個例子,只不過我們這時候要拋兩個硬幣了。當(dāng)然,我們希望信息熵的定義能夠保證這時候?qū)?yīng)的為 2 bit。那么能不能做到呢?我們先完全不管第一枚硬幣的正反結(jié)果,因為對于第一枚硬幣的情況一無所知,那么這時候的系統(tǒng)其實就相當(dāng)于只拋一枚硬幣了,當(dāng)然此時的信息熵就是 1bit。此時我們再單獨看第一枚硬幣帶給我們的信息熵,其同樣為 1bit。所以在信息熵的定義過程中,要讓其具有系統(tǒng)的可加性。也就是
Hm(p1...pm) = Hm(p1+p2, ...pm) + p H2(p1/p, p2/p)
其中 p = p1 + p2.
在有了這兩條以后,我們就能推導(dǎo)出信息熵的公式只能是上面對數(shù)的形式了。[6]

那些說不完的秘密

熵的故事其實最早要從物理上開始說起,其度量了分子的微觀狀態(tài)的混亂程度。

在信息的世界中,熵越高,其可能性越多,則能傳遞越多的信息;熵越低,其可能性越低,則能傳遞的信息越少。比如你說了一句話,「今晚夜色真美」,里面包含了很多的可能性,熵比較高,我們一般就可以說這句話「信息量很大」。
不過我們?nèi)粘I钪袑τ谛畔?,或者信息量很大還有另外一種理解。熵是對不確定度的度量,獲取信息等于消滅熵。就像你讀了「中科院物理所」推送的文章一樣,學(xué)到了很多東西,信息量很大。這個其實并不是說我們文章模棱兩可,充滿了可能性,而是在說你心里對一些事物是比較模糊的,在閱讀完文章以后,消滅了這種模糊性,獲得了信息。
回到我們前面敘述的那么多編碼中來,一段數(shù)據(jù)經(jīng)過編碼以后被無損地壓縮了,信息不變,但是長度變短了,這也就意味著我們更難預(yù)測每個字符的下一個字符,因此它的信息熵會增加。因為一個固定長度的消息其信息熵有上限,這也就是說消息壓縮存在著上限,我們不能無限制地對消息進行壓縮。

在信息熵的背后還有點小故事。在香農(nóng)提出這個概念以后,馮諾依曼發(fā)現(xiàn)了其與物理學(xué)上的熱力學(xué)熵概念存在相同之處,從而建議香農(nóng)取名為「信息熵」。不過也有傳聞?wù)f取這個名字的理由是這個熱力學(xué)名詞別人不懂,容易被唬住。[7]
* 圖片均來源于網(wǎng)絡(luò)

* 參考文獻與鏈接:
[1] 摩斯密碼到底是怎么回事?普通人能學(xué)會嗎?https://www.zhihu.com/question/26029594
[2] 百度百科 - ASCII碼 https://baike.baidu.com/item/ASCII/309296?fromtitle=ascii%E7%A0%81&fromid=99077&fr=aladdin
[3] 最為透徹的utf-8、unicode詳解 https://blog.csdn.net/tcf_jingfeng/article/details/80134600
[4] Unicode 編碼理解 https://blog.csdn.net/wdeng2011/article/details/80155795
[5] 字符編碼的故事 https://blog.csdn.net/longintchar/article/details/51079340
[6] 關(guān)于這中間推導(dǎo)的細節(jié)詳見 Handout Mode 的 Application of Information Theory, Lecture 1, Basic Definitions and Facts (http://120.52.51.16/www.cs.tau.ac.il/%7Eiftachh/Courses/Info/Fall15/Printouts/Lesson1_h.pdf),該文檔里面還介紹了信息熵定義的其它一些性質(zhì)以及證明。Witten 在去年也寫過一個關(guān)于信息熵和信息理論的簡短介紹(A Mini-Introduction To Information Theory),里面有和物理聯(lián)系的更緊密一些的例子,并介紹了信息熵量子化的版本和應(yīng)用,詳見 arXiv:1805.11965 (https://arxiv.org/pdf/1805.11965.pdf)
[7] Information Entropy - wikipedia: https://en.wikipedia.org/wiki/Entropy_(information_theory)

>> 熱門文章推薦 <<




