-
損失函數
鎖定
- 中文名
- 損失函數
- 外文名
- loss function
- 類 型
- 函數
- 應用學科
- 統計學
- 應用領域
- 機器學習,經濟學,控制理論
損失函數函數定義
在樣本空間
內有可測狀態
和隨機變量
根據法則
所做的決策
,此時若在乘積空間
上有函數
滿足:
,即對任意的
,
是非負可測函數,則
被稱為損失函數,表示狀態
下采取決策
所對應的損失或風險
[4]
。
機器學習中,給定獨立同分布(independent and identically distributed,iid)的學習樣本
,和模型
,損失函數是模型輸出和觀測結果間概率分佈差異的量化
[1]
:
損失函數函數分類
損失函數迴歸問題
迴歸問題所對應的損失函數為L2損失函數和L1損失函數,二者度量了模型估計值
與觀測值
之間的差異:
損失函數分類問題
分類問題所對應的損失函數為0-1損失,其是分類準確度的度量,對分類正確的估計值取0,反之取1:
這裏給出二元分類(binary classification)中0-1損失函數的代理損失:
名稱 | 表達式 |
---|---|
鉸鏈損失函數(hinge loss function) | |
交叉熵損失函數(cross-entropy loss function) | |
指數損失函數(exponential loss function) |
鉸鏈損失函數是一個分段連續函數,其在分類器分類完全正確時取0。使用鉸鏈損失對應的分類器是支持向量機(Support Vector Machine, SVM),鉸鏈損失的性質決定了SVM具有稀疏性,即分類正確但概率不足1和分類錯誤的樣本被識別為支持向量(support vector)被用於劃分決策邊界,其餘分類完全正確的樣本沒有參與模型求解
[6]
。
交叉熵損失函數是一個平滑函數,其本質是信息理論(information theory)中的交叉熵(cross entropy)在分類問題中的應用。由交叉熵的定義可知,最小化交叉熵等價於最小化觀測值和估計值的相對熵(relative entropy),即兩者概率分佈的Kullback-Leibler散度:
,因此其是一個提供無偏估計的代理損失。交叉熵損失函數是表中使用最廣泛的代理損失,對應的分類器例子包括logistic迴歸、人工神經網絡和概率輸出的支持向量機。
指數損失函數是表中對錯誤分類施加最大懲罰的損失函數,因此其優勢是誤差梯度大,對應的極小值問題在使用梯度算法時求解速度快。使用指數損失的分類器通常為自適應提升算法(Adaptive Boosting, AdaBoost),AdaBoot利用指數損失易於計算的特點,構建多個可快速求解的“弱”分類器成員並按成員表現進行賦權和迭代,組合得到一個“強”分類器並輸出結果。
- 參考資料
-
- 1. 邱錫鵬 著,神經網絡與深度學習,第二章 機器學習概述 .Github Inc..2018-6-25[引用日期2019-01-15]
- 2. Mayer, T., 2003. The macroeconomic loss function: A critical note. Applied Economics Letters, 10(6), pp.347-349.
- 3. Todorov, E., 2006. Optimal control theory. Bayesian brain: probabilistic approaches to neural coding, pp.269-298.
- 4. Loss function .Encyclopedia of Mathematics - The European Mathematical society & Springer.2010[引用日期2019-01-15]
- 5. Zhang, T., 2004. Statistical behavior and consistency of classification methods based on convex risk minimization. Annals of Statistics, pp.56-85.
- 6. 周志華.機器學習.北京:清華大學出版社,2016:pp.121-139, 298-300