『壹』 概率圖模型(1)——馬爾可夫鏈
馬爾可夫鏈:過程在 時刻所處狀態條件與過程在時刻 之前所出的狀態無關。(在已經知道「現在」的條件下,其「將來」與「過去」無關)
數學表達為:
Bob和Alice是一對好朋友,Bob的心情與天氣有關,如果天氣很好為 sunny,記為S ,Bob一般是處於 happy,記為H 狀態的,如果天氣是 rain,記為R ,Bob的心情一般是處於 grumpy,記為G 狀態的。 Alice呢,是一個很細心很會觀察的女孩,收集了14天以來 天氣情基培談況 ,以及Bob15天的 心情 。
統計圖中狀態轉換對應的數量:
統計圖中狀態轉換對應的數量:
繪制了下面這張圖。
圖3-1中的幾個概率值稱為 transition probabilities
圖3-2中的幾個概率值稱為 emission probabilities
在[圖2. Bob心情與天氣對應關系]中,晴天有十天,雨天有五天,在Bob沒有任何信息提示的情況下,晴天所佔比例為 ,雨天所佔比例為 。所以第一問題的答案為有 的可能性是晴天, 的可能性是雨天。
其實這是一個貝葉斯問題:
已知
, ,
, ,
, ,
,
求 與 的搏碰概率。
連續三天,共有 中可能:
以第3種情況為例:
這樣分別計算8中情況,取概率最大的
考慮了六天,那麼總共有 種可能性,每增加一天,考慮的可能性是呈指數上升的,在這里,需要藉助 動態規劃 的思想。
Alice根據Bob心情預測天氣的例子就是問題3——預測問題。
通過一道簡單例題說明:
分為以下幾個步驟:
在 時刻,紅球的概率為
在 時刻,3個盒子轉移到不同盒子的概率以及生成白球的概率如下表所示。
完整過程如下:
代表,在 時刻,在盒子1是紅球的中尺條件的情況下,觀測序列是:白,紅2(第二顆紅球)的概率。
在 時刻
在 時刻
每一個盒子的概率和的意義為:該盒子是白球的條件下,觀測序列為[紅球]的概率
給定模型參數 和觀測 ,在時刻 處於狀態 的概率記為:
在學習演算法中,分為 監督學習 和 非監督學習 。
當訓練集中包括了 觀測序列 和 狀態序列 時,可採用監督學習的方法對參數值進行估計。
本文第3節「隱馬爾科夫的科學推導」 之「3.1 基本概念」 中「隱馬爾可夫模型的形式定義」下方的Bob心情與天氣的例子。
當訓練集僅包括 觀測序列 ,目標是學習估計馬爾科夫的參數(狀態轉移矩陣,觀測概率矩陣以及初始概率)
此時,將觀測序列看做是觀測數據 ,狀態序列看做是隱變數 藉助 EM模型 即可求解。
具體例子見本文2.3節:Viterbi 演算法
『貳』 馬爾可夫鏈的原理簡介
馬爾可夫鏈(Markov Chain),描述了一種狀態序列,其每個狀態值取決於前面有限個狀態。馬爾可夫鏈是具有馬爾可夫性質的隨機變數的一個數列。這些變數的咐槐咐范圍,即它們所有可能取值的集合,被稱為「狀明扮態衡純空間」,而的值則是在時間n的狀態。如果對於過去狀態的條件概率分布僅是的一個函數,則
這里x為過程中的某個狀態。上面這個恆等式可以被看作是馬爾可夫性質。