複製鏈接
請複製以下鏈接發送給好友

離散無記憶信源

鎖定
離散無記憶信源是最簡單的離散信源,可以用完備的離散型概率空間來描述,其主要特點是離散和無記憶。離散指的是信源可能輸出的消息的種類是有限的或者是可數的。消息的樣本空間R是一個離散集合。由於信源的每一次輸出都是按照消息發生的概率輸出R中的一種消息,因此信源輸出的消息可以用離散隨機變量X表示。無記憶是指不同的信源輸出消息之間相互獨立。 [1] 
中文名
離散無記憶信源
外文名
discrete memoryless source
所屬學科
數學
特    點
離散性、無記憶性等
相關概念
信源、自信息、信源熵等

離散無記憶信源數學模型

定義 信源X發出n個不同的符號
,分別代表n種不同的消息,發出各個符號的概率分別是
這些符號間彼此互不相關,且滿足
稱這種信源為離散無記憶信源 [2] 
離散無記憶信源是最簡單也是最基本的一類信源,可以用完備的離散型概率空間來描述,其數學模型可表示為
其中n可以是有限正整數,也可以是可數無限大整數。信源輸出的消息只可能是符號集
中的任何一個,而且每次必定選取其中一個。可見,若信源給定,其相應的概率空間就已給定;反之,若概率空間給定,也就表示相應的信源給定。所以,概率空間能夠表徵離散信源的統計特性。
例1】在一個箱子中,有紅、黃、藍、白四種不同顏色的綵球,大小和重量完全一樣,其中紅球16個,黃球8個,藍球和白球各4個,若把從箱子中任意摸出一個球的顏色的種類作為信源,試建立其數學模型。
解:
表示摸出紅球,
表示摸出黃球,
表示摸出藍球,
表示摸出白球,則
信源的數學模型為
在討論了信源的數學模型,即信源輸出的數學描述問題後,很自然地接着會提出這樣一個問題:信源發出某一符號(或某一消息)後,它輸出多少信息量?整個信源能輸出多少信息?這就是信息的度量問題。

離散無記憶信源信息度量

我們知道可以用概率大小來描述含有不確定性的事件。事件發生的概率越小,此事件含有的信息量就越大,獲得了信息也就消除了不確定度。隨機事件的不確定度,在數量上等於它的自信息量。因此,當信源發出的消息不確定性越大,此消息含有的信息量就越大。一旦消息發出,併為接收者收到後.消除的不確定性也越大,獲得的信息也越多。離散信源可以用離散隨機變量來描述,所以我們可以用信源輸出消息符號的不確定性作為信源輸出信息的度量。

離散無記憶信源信息量

信源X發出某一消息符號
能提供的信息量,即
自信息量(簡稱自信息)為
自信息量
是指某一信源發出某一消息符號
後所提供的信息量。自信息量
的大小隨着信源發出符號的不同而變化,不是一個確定的值,是一個隨機變量,因此不能用它作為整個信源的信息測度。而在實際中,常常需要對某個信源進行整體分析,這就要求用一個確定的值來描述信源的總體統計特徵,因此定義自信息的數學期望為信源的平均信息量,或者稱為信源的信息熵 [2] 

離散無記憶信源信源熵

信源各個符號的自信息的數學期望定義為信源的平均信息量,即信源熵,記為
信源熵是從平均意義上來表徵信源的總體特性的一個量,它描述了信源的統計平均不確定性。信源熵有以下幾種物理含義。
(1)在信源輸出前,信源熵表示信源的平均不確定性。
(2)在信源輸出後,信源熵表示一個信源符號所提供的平均信息量。
(3)表示信源隨機性大小,信息熵越大,隨機性越大。
應該注意的是:信源熵是信源的平均不確定度的描述。一般情況下它並不等於平均獲得的信息量。只有在無噪情況下,接收者才能正確無誤地接收到信源所發出的消息,消除
大小的平均不確定性,所以獲得的平均信息量就等於
。在一般情況下獲得的信息量是兩熵之差,並不是信源熵本身。 [2] 

離散無記憶信源例題解析

例2】投擲一枚質量均勻的硬幣,觀察正反面出現的情況,求信源熵。
解:
表示“出現正面”,
表示“出現反面”,概率空間為
(bit/符號)
例3】 計算等概率英文信源的信息熵。
解: 設26個字母和空格共27個符號等概率出現,每個符號的概率為1/27。信源熵為
(bit/符號)
或者可以直接應用最大離散熵定理,等概率分佈信源的熵為
(bit/符號)
例 4】 在一個箱子中,有紅、黃、藍、白四種不同顏色的綵球,大小和質量完全一樣,其中紅球16個,黃球8個,藍球和白球各4個,若把從箱子中任意摸出一個球的顏色的種類作為信源,求這個信源的熵。
解: 由題意知此信源的數學模型為
(bit/符號)
例5] 討論一種極端的情況,二進制信源只發送一種消息,即永遠只發送1或者只發送0,求這個信源的熵。
解: 此信源發0的概率為1則發1的概率為0,或者發1的概率為1則發0的概率為0,由熵的定義式出發求得H(X)=0。
這是一個確定信源,要麼發0要麼發1,發出的符號是確定的,不存在不確定性。也就是説,這樣的信源,我們不能從中獲取任何信息,信源的不確定性為0。
由以上4道例題我們可以總結出以下結論。
(1)信源的熵值大小與其概率空間的消息數和消息的概率分佈有關係。
(2)信源的消息為等概率分佈時,不確定度最大,熵值最大。
(3)信源的消息為等概率分佈,且其消息數目越多,其不確定度越大,熵值越大。
(4)只發送一個消息的信源,其不確定度為0,不能提供任何信息,熵值也就為0。 [2] 
參考資料
  • 1.    平西建,童莉,鞏克現.信息論與編碼:西安電子科技大學出版社,2009.02
  • 2.    齊華主編;陳紅,張豔玲副主編.信息理論與編碼:中國電力出版社,2014.08