-
核方法
鎖定
核方法是解決非線性模式分析問題的一種有效途徑,其核心思想是:首先,通過某種非線性映射將原始數據嵌入到合適的高維特徵空間;然後,利用通用的線性學習器在這個新的空間中分析和處理模式。
相對於使用通用非線性學習器直接在原始數據上進行分析的範式,核方法有明顯的優勢:
首先,通用非線性學習器不便反應具體應用問題的特性,而核方法的非線性映射由於面向具體應用問題設計而便於集成問題相關的先驗知識。
再者,線性學習器相對於非線性學習器有更好的過擬合控制從而可以更好地保證泛化性能。
- 中文名
- 核方法
- 外文名
- kernel methods
- 類 型
- 模式識別的算法
算法簡介
本文對核方法(kernel method)進行簡要的介紹。
核方法的主要思想是基於這樣一個假設:“在低維空間中不能線性分割的點集,通過轉化為高維空間中的點集時,很有可能變為線性可分的” ,例如有兩類數據,一類為x<aUx>b;另一部分為a<x<b。要想在一維空間上線性分開是不可能的。然而我們可以通過F(x)=(x-a)(x-b)把一維空間上的點轉化到二維空間上,這樣就可以劃分兩類數據F(x)>0,F(x)<0;從而實現線性分割。
然而,如果直接把低維度的數據轉化到高維度的空間中,然後再去尋找線性分割平面,會遇到兩個大問題,一是由於是在高維度空間中計算,導致維度禍根(curse of dimension)問題;二是非常的麻煩,每一個點都必須先轉換到高維度空間,然後求取分割平面的參數等等;怎麼解決這些問題?答案是通過核戲法(kernel trick)。(pku, shinningmonster, sewm)
Kernel Trick:定義一個核函數<
>, 其中x1和x2是低維度空間中點(在這裏可以是標量,也可以是向量),
是低維度空間的點
轉化為高維度空間中的點的表示,< , > 表示向量的內積。這裏核函數
的表達方式一般都不會顯式地寫為內積的形式,即我們不關心高維度空間的形式。
核函數巧妙地解決了上述的問題,在高維度中向量的內積通過低維度的點的核函數就可以計算了。這種技巧被稱為Kernel trick。
這裏還有一個問題:“為什麼我們要關心向量的內積?”,一般地,我們可以把分類(或者回歸)的問題分為兩類:參數學習的形式和基於實例的學習形式。參數學習的形式就是通過一堆訓練數據,把相應模型的參數給學習出來,然後訓練數據就沒有用了,對於新的數據,用學習出來的參數即可以得到相應的結論;而基於實例的學習(又叫基於內存的學習)則是在預測的時候也會使用訓練數據,如KNN算法。而基於實例的學習一般就需要判定兩個點之間的相似程度,一般就通過向量的內積來表達。從這裏可以看出,核方法不是萬能的,它一般只針對基於實例的學習。
緊接着,我們還需要解決一個問題,即核函數的存在性判斷和如何構造? 既然我們不關心高維度空間的表達形式,那麼怎麼才能判斷一個函數是否是核函數呢?
Mercer 定理:任何半正定的函數都可以作為核函數。所謂半正定的函數f(xi,xj),是指擁有訓練數據集合(x1,x2,...xn),我們定義一個矩陣的元素aij = f(xi,xj),這個矩陣式n*n的,如果這個矩陣是半正定的,那麼f(xi,xj)就稱為半正定的函數。這個mercer定理不是核函數必要條件,只是一個充分條件,即還有不滿足mercer定理的函數也可以是核函數。
- 詞條統計
-
- 瀏覽次數:次
- 編輯次數:23次歷史版本
- 最近更新: 青青的麦田year