全站文章索引 📚📚📚

展開全部 | 收合全部

全站文章索引 📚📚📚

展開全部 | 收合全部

【Google ML】20 – Lesson 6 – 使用損失函數(Loss Functions)來評估ML模型的好壞吧! MSE, RMSE, Cross Entropy 的計算方法與特性

前言

這幾天的文章會是一系列的,會需要一起看才比較能看懂整個ML模型的輪廓,
然而因為一天能寫的內容量有限,所以我會在前言部分稍微說明我寫到哪。

複習一下ML的整個訓練過程

因為ML模型的訓練階段章節內容會分很多部分,我們要先確認好自己在哪個階段,
以免吸收新內容卻不知道用在內容的什麼地方。

★ML的整個「訓練過程」:這裡以監督式學習(Supervised Learning)為例

階段要做的事情簡介
(訓練前)決定資料集與分析資料你想要預測的是什麼資料? 這邊需要先知道 examplelabelfeatures的概念。介紹可參考:【Day 15】,而我們這次作為範例的訓練資料集介紹在【Day 19】
(訓練前)決定問題種類依據資料,會知道是什麼類型的問題。regression problem(回歸問題)? classification problem(分類問題)? 此處可參考:【Day 16】、與進階內容:【Day 17】
(訓練前)決定ML模型(ML models)依據問題的種類,會知道需要使用什麼對應的ML模型。回歸模型(Regression model)? 分類模型(Classification model)? 此處可參考:【Day 18】神經網路(neural network)? 簡介於:【Day 25】
(模型裡面的參數)ML模型裡面的參數(parameters)超參數(hyper-parameters) 此處可參考:【Day 18】
(訓練中) 調整模型評估當前模型好壞損失函數(Loss Functions):使用損失函數評估目前模型的好與壞。以MSE(Mean Squared Error), RMSE(Root Mean Squared Error), 交叉熵(Cross Entropy)為例。此處可參考:【Day 20】
(訓練中) 調整模型修正模型參數梯度下降法 (Gradient Descent)為例:決定模型中參數的修正「方向」與「步長(step size)」此處可參考:【Day 21】
(訓練中) 調整腳步調整學習腳步透過學習速率(learning rate)來調整ML模型訓練的步長(step size),調整學習腳步。(此參數在訓練前設定,為hyper-parameter)。此處可參考:【Day 22】
(訓練中) 加快訓練取樣與分堆設定batch size,透過batch從訓練目標中取樣,來加快ML模型訓練的速度。(此參數在訓練前設定,為hyper-parameter)。與迭代(iteration),epoch介紹。此處可參考:【Day 23】
(訓練中) 加快訓練檢查loss的頻率調整「檢查loss的頻率」,依據時間(Time-based)步驟(Step-based)。此處可參考:【Day 23】
(訓練中) 完成訓練(loop) -> 完成重覆過程(評估當前模型好壞 -> 修正模型參數),直到能通過「驗證資料集(Validation)」的驗證即可結束訓練。此處可參考:【Day 27】
(訓練後)訓練結果可能問題「不適當的最小loss?」 此處可參考:【Day 28】
(訓練後)訓練結果可能問題欠擬合(underfitting)?過度擬合(overfitting)? 此處可參考:【Day 26】
(訓練後)評估 – 性能指標性能指標(performance metrics):以混淆矩陣(confusion matrix)分析,包含「Accuracy」、「Precision」、「Recall」三種評估指標。簡介於:【Day 28】、詳細介紹於:【Day 29】
(訓練後)評估 – 新資料適用性泛化(Generalization):對於新資料、沒看過的資料的模型適用性。此處可參考:【Day 26】
(訓練後)評估 – 模型測試使用「獨立測試資料集(Test)」測試? 使用交叉驗證(cross-validation)(又稱bootstrapping)測試? 此處可參考:【Day 27】
(資料分堆的方式)(訓練前) 依據上方「模型測試」的方法,決定資料分堆的方式:訓練用(Training)、驗證用(Validation)、測試用(Test)。此處可參考:【Day 27】

而今天的文章我們就要來介紹所謂的損失函數(Loss Functions)的概念。

Course – Launching into Machine Learning

第三章節的課程地圖:(紅字標記為本篇文章中會介紹到的章節)
* Optimization
* Introduction to Optimization
* Introduction
* Defining ML Models
* Defining ML Models
* Introducing the Natality Dataset
* Introducing Loss Functions
* Gradient Descent
* Gradient Descent
* Troubleshooting a Loss Curve
* ML Model Pitfalls
* TensorFlow Playground
* Lab: Introducing the TensorFlow Playground
* Lab: TensorFlow Playground – Advanced
* Lab: Practicing with Neural Networks
* Loss Curve Troubleshooting
* Performance Metrics
* Performance Metrics
* Confusion Matrix
* Module Quiz


1. Introducing Loss Functions

課程地圖
* Optimization
* Introducing Loss Functions

在前面的章節中,我們定義的ML模型內的參數 parametershyperparameters
並介紹了 linear models 裡面的 parameters 大概會做什麼運算。

然後我們就要討論如何去最佳化這些在ML模型中的parameters

【Day 19】 中,我們曾經提過在數據集不大時,可以使用的統計方法。

後來我們提到可以在參數空間(parameter space)試著搜尋最佳參數,
但要「比較每個參數的好壞」,我們會需要一個「判定的準則」。

今天我們就是要來細講這個「判定的準則」,
我們稱這個準則為損失函數(loss functions)
這個函數就是用來幫助依照現在ML模型(裡面參數parameters)的預測結果,
做好壞的評估,並且他會以「數值化」的方式告訴我們有多好/壞。

1.1 regression problems(回歸問題) 的損失函數

https://ithelp.ithome.com.tw/upload/images/20190921/20120424HNA2zBdmC1.png

我們將目前所預測的值(prediction)與真實數據(label)直接比較差多少,
我們稱之為「誤差(error)」,我們可參考上圖。

但在每次訓練中,我們有非常多組參考資料(example),
我們會得到一堆誤差(error),
我們需要去思考該怎麼組合這些數據。

  • 最簡單的方法,就是直接加總,例如使用sum。
    > 然而,我們想一個問題,如果直接加總的話,正值與負值會被抵銷,
    > 例如誤差組合:(+100,-100)與(0,0),sum值相同,但代表意義相同?!
    > 顯然,這方法存在問題。

因此,為了解決上述問題,我們應該要找一個更具代表性的
能象徵我們預測的值(prediction)與真實數據(label)的算法,
而這算法不會使得「誤差(error)」之間相互抵消。

  • 那「誤差(error)」的絕對值之和呢?
    google只有提到會有問題,沒關係我自己來補充註:

    這方法稱作MAE(Mean absolute error) – 平均絕對值誤差,這方法是合理的,
    但會有「在等於0時」不可微分的問題(這個可以自己畫圖或看以下參考資料)
    不可微分會有什麼問題? 簡單來說,我們會沒辦法透過微分決定ML模型的修正方向。
    但完全不能使用嗎? 倒也不完全是不能用,他有它的長處,但這邊再談下去就太多了,
    ★就留個可參考的資料給有興趣的人:機器/深度學習: 基礎介紹-損失函數(loss function)

  • 我們常用的方法:MSE(Mean Squared Error)

MSE(Mean Squared Error)的算法是從我們的所有數據中,
1. 拿預測的值(predictd value)與真實數據(labeled value)相減
2. 所有的相減值皆平方(避免誤差正負相消),並取總和
3. 再除以總數量平均

MSE方法計算結果是很值得參考的,確實很適合作為我們的 loss function。

但MSE方法仍然有個小問題,在「單位的解釋」上我們有點難以解釋數據

例1:計算「體重」誤差,請問「公斤的平方」意義是?
例2:計算「金錢」誤差,請問「美元的平方」意義是?

因此,我們會採用MSE(Mean Squared Error)的平方根
* 用 RMSE(Root Mean Squared Error) 以獲得我們能解釋的單位。

自己的註:

注意:MSE(Mean Squared Error)在「數值」上仍然具有誤差代表性,並非不能使用。
而使用RMSE(Root Mean Squared Error)只是更能解釋「數值」量的意義(因為有單位)。

https://ithelp.ithome.com.tw/upload/images/20190921/20120424ZLgYqCzufr.png
(RMSE的算法,少做開根號的動作即為MSE。)
(圖中ŷ表示我們預測的值(predictd value)、y表示真實數據(labeled value))

RMSE(Root Mean Squared Error)的數值越大,同時也能表示我們預測的表現越差。
所以訓練我們要做的事情就是「最小化RMSE(Root Mean Squared Error)」。

現在我們找到了一個方法,能幫助我們在參數空間(parameter space)中衡量參數(parameter)的好壞。

記得:參數(parameter)使用於我們的ML模型中,也就是我們線性模型(linear model)中的參數。

https://ithelp.ithome.com.tw/upload/images/20190921/20120424fP4dMRtaFD.png

我們稍微比較上面的的兩張圖,這是兩張散佈圖(資料集為【Day 19】的嬰兒資料),
我們只看39歲以上的母親並畫上回歸線,
視覺上我們非常難看出哪條線畫的比較好。
這就是為何我們要決定我們的損失函數(loss functions)
他可以數值化且具體的指出哪一條線比較好,
於是我們使用我們剛剛決定的損失函數(loss functions)RMSE(Root Mean Squared Error)

我們發現左邊的模型目前的RMSE值為145、右邊的模型目前的RMSE值為149,
因此,透過損失函數(loss functions)我們知道左側的「目前模型訓練的結果比較好」。

「目前模型訓練的結果比較好」:表示有較好的weightbias

1.2 classification problems(分類問題) 的損失函數

https://ithelp.ithome.com.tw/upload/images/20190921/20120424mOVdOyjlVF.png
(用RMSE預測分類問題的結果。下方內容有圖片解釋。)

但我們發現有個問題:RMSE作為損失函數(loss functions)
線性回歸問題(linear regression problems)的表現很好,
分類問題(classification problems)似乎不行。

我們先回到分類問題的本身,還記得當初我們定義的分類問題,
他的結果是將目標分類。也就是我們的label會是一個「類別」而「非連續數」。
我們拿之前提到的編碼(encode)為例,
透過編碼(encode),我們能將我們預測的類別以「0或1」的方式表示。

我們回來解釋上方的圖,
* X軸表示我們的預測結果(prediction)
* Y軸表示(loss),表示預測值(prediction)與實際值(label)的RMSE誤差
* 藍色為預測結果是0所畫出來的線
* 綠色為預測結果是1所畫出來的線

這曲線出了什麼問題呢?

我們可以看見當目標target(label)為0時,預測結果1的比預測結果0.5的糟糕三倍

這邊比較難懂,自己稍微補充解釋一下:

例如明明是正確結果是0,我們預測1,loss自然就是全錯 = 1
明明是正確結果是0,我們預測0,loss自然就是全對 = 0
明明是正確結果是0,我們預測0.5,loss是「算誤差總共的RMSE」約等於 0.3
(很多的「0.5-0」然後平方、除總數、開根)
這也是為什麼明明是正確結果是1,我們預測0.5,loss是也等於 0.3
因為也是(很多的「0.5-1」然後平方、除總數、開根),一樣吧!

這結果說明了什麼? 有些糟糕的預測應該有更強的懲罰,而且這預測完全不夠直覺。
所以證明我們會需要一個新的損失函數(loss functions)
針對我們的classification problems(分類問題)能夠有更直覺的懲罰。

(自己的註:「直覺的懲罰」的概念要比較下圖比較好懂,下面會解釋。)

https://ithelp.ithome.com.tw/upload/images/20190921/20120424p49iL4vqTg.png

交叉熵(Cross Entropy)是最常使用於分類問題的損失函數(loss functions)。

交叉熵(Cross Entropy)又有個別名log loss

上圖我們做一個與用「RMSE預測分類問題」的結果類似的圖,
我們使用交叉熵(Cross Entropy)做為新的損失函數(loss functions)

特別注意:圖中顯示交叉熵(Cross Entropy)會強烈處罰錯誤的預測。

這邊比較難懂,自己稍微補充解釋一下:

與上圖比較中,如果以藍線來說(真實label為1),預測結果如果是0,
看藍色取線的左側,套一句【Day 17】的內容,有沒有一種預測錯就非常完蛋的感覺?
與上面RMSE相比,處罰嚴重太多了,分類問題正是需要在分類錯誤時有最嚴重的懲罰,
我之前所說的「分類正確沒事,分類錯誤非常完蛋!!! 只要有分錯邊,誤差瘋狂上升」,正是類似這樣的概念~。

  • 我們再拿我之前【Day 17】做的表格看一下、順便複習一下吧:

★ 均方差(mean squared error) 與 交叉熵(cross-entropy) 的比較★

常用的計算誤差方法均方差(mean squared error)交叉熵(cross-entropy)
使用問題種類regression problem(回歸問題)classification problem(分類問題)
訓練目標最小化「均方差」最小化「交叉熵」
一維畫線(解)依據只要能使最小距離就好(平方最小)線畫下去就是要分好兩類資料,不可以有人跑錯邊(誤差會指數成長)
我自己的理解方式(不完全正確)計算距離,所以不管在線的哪邊沒差,離線平均都近一點就能最小惹分類正確沒事,分類錯誤非常完蛋!!! 只要有分錯邊,誤差瘋狂上升

完整內容請參考:【Day 17】 Google ML – Lesson 3 – 多維度線性回歸解(N-D Regression), 交叉熵(cross-entropy)與均方差(MSE) 作為誤差函數計算所帶來的不同

我們下面來舉一個實際的例子。

https://ithelp.ithome.com.tw/upload/images/20190921/201204241rqp93GFeU.png

上面這個就是交叉熵(Cross Entropy)的公式,
簡單拆解一下我們可以說分成「兩大terms」,
有趣的是這個公式每次「只會有一個term」有反應。

自己的註:「反應」等於「會產生loss的值」

  • Positive term:當結果是1時有反應。
  • Negative term:當結果是0時有反應。

你問為什麼嗎? 自己的註:

因為「0乘任何東西都是0,在Positive term出現0相乘就沒反應了。」
然後也是因為「0乘任何東西都是0,在Negative term出現1相乘就沒反應了(因為1-1=0)。」

https://ithelp.ithome.com.tw/upload/images/20190921/20120424sjLQ1LnOgS.png
這裡我們有一張表,正是一個圖片分類的問題,它秀出兩種已經被encode的labels,

這裡的encode方法為「有人臉的為1,沒有人臉的為0」

並且有我們的預測結果(predictions)與實際結果(label),看目前預測的結果似乎不錯。

https://ithelp.ithome.com.tw/upload/images/20190921/20120424hqpYs8iUC5.png

我們先看上方的example,因為它真的是人臉,所以label=1,
而我們預測0.7,我們發現後面的Negative term消失了(因為1-1=0),
而只剩下 Positive term 提供 loss。

我們在看下方的example,因為它不是人臉,所以label=0,
而我們預測0.7,我們發現前面的Positive term消失了(因為0乘任何東西都0),
而只剩下 Negative term 提供 loss。

稍微計算一下結果,我們得到的Cross Entropy Loss = 0.13
似乎是不錯的數值,顯示我們的模型結果不錯,然而我們來做個比較會更明顯。

https://ithelp.ithome.com.tw/upload/images/20190921/20120424dWh1ncIk8z.png

如果我們的模型沒有訓練好(做出好的預測),結果會是多少?

我們將下方的預測結果改為 0.8,也表示著下方結果目前是被錯誤預測(分類)的,
我們計算Cross Entropy Loss = 0.42,Loss有增加,
別忘了我們的訓練目標是要將「最小化Loss」
所以確實增加的Loss不是接近我們要的訓練結果。

https://ithelp.ithome.com.tw/upload/images/20190921/20120424y6sF5gs5H8.png

因此,上面介紹的方法就是我們如何在參數空間(parameter space)中比較參數的好壞,

自己再註一下:參數(parameter)指的就是 weightbias

不論是使用 RMSE(Root Mean Squared Error) 作為回歸問題的Loss Functions,
或是使用 交叉熵(Cross Entropy) 作為分類問題的Loss Functions,
要記住我們的目標是找出最佳的參數,Loss Functions是我們參考好壞的依據

但知道如何衡量好壞後,接下來我們要講的是如何去尋找這些點?
這個我們會在下一章梯度下降法 (Gradient Descent)提到。


本文同步發佈在: 第 11 屆 iT 邦幫忙鐵人賽
【Day 20】 Google ML – Lesson 6 – 使用損失函數(Loss Functions)來評估ML模型的好壞吧! MSE, RMSE, Cross Entropy的計算方法與特性


參考資料

⭐Google Machine Learning 相關文章整理⭐:
1.訂閱課程【Google ML】1 – Google ML – 參賽原因 與 就先從認識 coursera 與訂閱課程開始第一天吧
⭐ML 基礎知識篇⭐:
1.基礎ML知識什麼是ML? 為什麼ML最近才紅起來? 可參考:【Day 3】
2.設計ML問題如何設計一個ML問題?可參考:【Day 4】
3.ML與一般算法比較比較一般算法與ML算法,看出ML的優勢。可參考:【Day 11】
⭐ML 應用策略篇⭐:
1.ML的成功策略使用ML要成功,常需要的關鍵策略。可參考:【Day 5】
2.ML各階段與比重分配企業運行ML時,在ML的各階段應該放的比重與心力。可參考:【Day 6】
3.ML失敗的常見原因大部分企業使用ML卻失敗的前十大主因。可參考:【Day 6】
4.企業如何引入MLML在企業運行的五大階段與注意事項。 可參考:【Day 7】
⭐GCP 認識篇⭐:
1.在GCP上運行ML的階段在GCP上運行ML大概有哪五大階段? 可參考:【Day 2】
2.GCP上ML的介紹GCP上ML的介紹。可參考:【Day 8】【Day 11】
3.已訓練好的ML模型已訓練好的ML模型。建議可直接使用,不需要再自己訓練。如:Vision API(圖片辨識), Video intelligence API(影片辨識), Speech API(語音辨識), Translation API(語言翻譯), Natural Language API(自然語言處理)。介紹:【Day 4】詳細整理與比較:【Day 12】lab實作:【Day 14】
⭐GCP 上的 lab 實作篇⭐:
1.Lab 事前準備Lab 0 – 在GCP上開始lab前的事前準備與注意事項。可參考:【Day 9】
2.GCP上使用 VMLab 1 – 在GCP上分析地震資料與製圖,並儲存在雲端。可參考: 【Day 10】
3.BigQuery 與 DatalabLab 2 – 使用 BigQuery 與 Datalab 視覺化分析資料。可參考:【Day 13】
4.google ML APIsLab 3 – 使用google已訓練好的ML模型進行實作。如:Vision API(圖片辨識), Video intelligence API(影片辨識), Speech API(語音辨識), Translation API(語言翻譯), Natural Language API(自然語言處理)。可參考:【Day 14】
⭐ML中的不同學習種類⭐:
1.【Day 15】 監督式學習(Supervised Learning) 與 非監督式學習(Unsupervised Learning) 的介紹和比較
⭐訓練「一個」ML模型⭐:
(這裡以 監督式學習(Supervised Learning) 為例)
1. (訓練前)決定資料集與分析資料你想要預測的是什麼資料? 這邊需要先知道 example、label、features的概念。介紹可參考:【Day 15】而我們這次作為範例的訓練資料集介紹在:【Day 19】
2. (訓練前)決定問題種類依據資料,會知道是什麼類型的問題。regression problem(回歸問題)? classification problem(分類問題)? 此處可參考:【Day 16】與進階內容:【Day 17】
3. (訓練前)決定ML模型(ML models)依據問題的種類,會知道需要使用什麼對應的ML模型。回歸模型(Regression model)? 分類模型(Classification model)? 此處可參考:【Day 18】神經網路(neural network)? 簡介於:【Day 25】
4.(模型裡面的參數)ML模型裡面的參數(parameters)與超參數(hyper-parameters) 此處可參考:【Day 18】
5. (訓練中) 調整模型評估當前模型好壞損失函數(Loss Functions):使用損失函數評估目前模型的好與壞。以MSE(Mean Squared Error), RMSE(Root Mean Squared Error), 交叉熵(Cross Entropy)為例。此處可參考:【Day 20】
6. (訓練中) 調整模型修正模型參數以梯度下降法 (Gradient Descent)為例:決定模型中參數的修正「方向」與「步長(step size)」此處可參考:【Day 21】
7. (訓練中) 調整腳步調整學習腳步透過學習速率(learning rate)來調整ML模型訓練的步長(step size),調整學習腳步。(此參數在訓練前設定,為hyper-parameter)。此處可參考:【Day 22】
8. (訓練中) 加快訓練取樣與分堆設定batch size,透過batch從訓練目標中取樣,來加快ML模型訓練的速度。(此參數在訓練前設定,為hyper-parameter)。與迭代(iteration),epoch介紹。此處可參考:【Day 23】
9. (訓練中) 加快訓練檢查loss的頻率調整「檢查loss的頻率」,依據時間(Time-based)與步驟(Step-based)。此處可參考:【Day 23】
10. (訓練中) 完成訓練(loop) -> 完成重覆過程(評估當前模型好壞 -> 修正模型參數),直到能通過「驗證資料集(Validation)」的驗證即可結束訓練。此處可參考:【Day 27】
11. (訓練後)訓練結果可能問題「不適當的最小loss?」 此處可參考:【Day 28】
12. (訓練後)訓練結果可能問題欠擬合(underfitting)?過度擬合(overfitting)? 此處可參考:【Day 26】
13. (訓練後)評估 – 性能指標性能指標(performance metrics):以混淆矩陣(confusion matrix)分析,包含「Accuracy」、「Precision」、「Recall」三種評估指標。簡介於:【Day 28】詳細介紹於:【Day 29】
14. (訓練後)評估 – 新資料適用性泛化(Generalization):對於新資料、沒看過的資料的模型適用性。此處可參考:【Day 26】
15. (訓練後)評估 – 模型測試使用「獨立測試資料集(Test)」測試? 使用交叉驗證(cross-validation)(又稱bootstrapping)測試? 此處可參考:【Day 27】
16.(資料分堆的方式)(訓練前) 依據上方「模型測試」的方法,決定資料分堆的方式:訓練用(Training)、驗證用(Validation)、測試用(Test)。此處可參考:【Day 27】
⭐從所有ML模型的訓練結果中,找到「最好的」ML模型⭐:
( 原因:「訓練好一個模型」不等於「找到最好的模型」 )
1.(訓練模型)【Day 27】 使用「訓練資料集(Training)」訓練模型(調整參數),也就是「上方表格」在做的內容
2.(結束訓練)【Day 27】 訓練到通過「驗證資料集(Validation)」結束訓練(未達到overfitting的狀態前)
3.(模型再調整)【Day 27】 超參數(hyperparameters)調整或神經網路的「layer數」或「使用的node數」(一些訓練前就會先決定的東西)
4.(loop)【Day 27】 (模型再調整)後,重複上述(訓練模型)、(結束訓練),完成訓練新的模型
5.(找到最佳模型)【Day 27】 從「所有訓練的模型」中,找到能使「驗證用資料集(Validation)」最小的loss,完成(找到最佳模型)
6.(決定是否生產)【Day 27】 可以開始決定要不要將此ML模型投入生產。此時我們可以使用「獨立測試資料集(Test)」測試? 使用交叉驗證(cross-validation)(又稱bootstrapping)測試?
⭐訓練 ML 模型的小實驗⭐:
1.【Day 24】 TensorFlow Playground 的簡介與介面介紹
2.【Day 24】 learning rate 的改變對訓練過程的影響
3.【Day 25】 使用神經網路(neural network)分類資料
4.【Day 25】 觀察batch size如何影響gradient descent
⭐30天內容回顧與課程索引, 參賽心得, 未來計畫與感謝⭐:
1.【Google ML】30 – 30天內容回顧與課程索引, 參賽心得, 未來計畫與感謝
⭐【喜歡我的文章嗎? 歡迎幫我按讚~ 讓基金會請創作者喝一杯咖啡!
如果喜歡我的文章,請幫我在下方【按五下Like】 (Google, Facebook 免註冊),會由 「LikeCoin」 贊助作者鼓勵繼續創作,讀者們「只需幫忙按讚,完全不用出錢」哦!

likecoin-steps
Howard Weng
Howard Weng

我是 Howard Weng,很多人叫我嗡嗡。這個網站放了我的各種筆記。希望這些筆記也能順便幫助到有需要的人們!如果文章有幫助到你的話,歡迎幫我點讚哦!
另外,因為定位是「個人的隨手筆記」,有些文章內容「⚠️可能我理解有誤⚠️」或「🥱只寫到一半😴」,如果有發現這樣的情況,歡迎在該文章的最下面留言提醒我!我會儘快修正或補上!感謝大家的建議與幫忙,讓網站能變得更好🙏

文章: 817

★留個言吧!內容有誤或想要補充也歡迎與我討論!