-
加權最小二乘法
鎖定
加權最小二乘法是對原模型進行加權,使之成為一個新的不存在異方差性的模型,然後採用普通最小二乘法估計其參數的一種數學優化技術。
- 中文名
- 加權最小二乘法
- 外文名
- weighted least square method
- 實 質
- 數學優化技術
- 方 式
- 最小化誤差的平方和
- 所屬學科
- 數學
- 釋 義
- 對原模型進行加權,使之成為一個新的不存在異方差性的模型,然後採用普通最小二乘法估計其參數的一種數學優化技術
加權最小二乘法定義
一般最小二乘法將時間序列中的各項數據的重要性同等看待,而事實上時間序列各項數據對未來的影響作用應是不同的。一般來説,近期數據比起遠期數據對未來的影響更大。因此比較合理的方法就是使用加權的方法,對近期數據賦以較大的權數,對遠期數據則賦以較小的權數。加權最小二乘法採用指數權數Wn-i,0<W<1,加權以後求得的參數估計值應滿足:
以直線模型
為例,其加權的剩餘平方和為:
對上式分別求a和b的偏導數,得到標準方程組:
加權最小二乘法迭代加權最小二乘法
假設用作Ω對角線值倒數的個體方差未知,且不能被輕易估計,但已知它們是結果變量均值的一個函數:
。那麼,如果結果變量的期望值E[Yi]=μ和關係函數的形式f()是已知的,這就是一個非常直觀的估計過程。不幸的是。儘管方差結構與均值函數的相關性非常普遍,但是相對來説,我們不太知道這一相關的確切形式。
[2]
這個問題的一個解決方法是迭代地估計權重,在每一輪估計中用均值函數提升估汁。因為
,因此係數估計
提供了一個均值估計,反過來也是一樣。因此算法用漸進提升的權重來迭代估計這些量。過程如下:
1.為權重設定起始值,一般等於1(也就是沒有權重的迴歸):1/vi(1)=1,並且構建對角線矩陣Ω,防止以零做除數。
2.以現有的權數用加權最小二乘法估計β。第j個估計是:
。
3.用新估計的均值向量1/vi(j+1)=VAR(μi)更新權數。
4.重複第二步和第三步直到收斂(也就是
足夠接近於0)。
因為我們在廣義線性模型中確定了一個明確的連接函數,所以多元正態方程的形式可以修改為包括這一嵌入的轉化:
很明顯,在線性模型的情況下,當連接僅僅是恆等函數時,上述方程就可以簡化。對於廣義線性模型,IWLS操作的總體策略相當簡單:用費歇得分的牛頓--萊福遜算法反覆地應用於修正的上述常規方程。對於精闢細緻的分析和這一操作的擴展,讀者可以參看格林(Green.1984)和德爾皮諾(del Pino,1989)的論述。
[2]
加權最小二乘法加權最小二乘法估計
考慮各個觀測數據誤差分佈的不同,定義加權目標函數
將
代入式(1),並令
設a是
估計的真值,估計誤差
的協方差矩陣
將
代入到式(3)中,得
將式(5)代入到式(4)中,整理得
其中
可以證明,若取加權矩陣
易知最小二乘法估計誤差協方差A與馬爾可夫估計誤差協方差AMV相等,即A=AMV。因此,選用權矩陣
加權最小二乘法舉例
通過最小二乘法擬合線性趨勢方程。
將表中數據代入公式
得:
,解得a=66.95,b=8;所得趨勢方程為: