分類

展開全部 | 收合全部

分類

展開全部 | 收合全部

【Google ML】23 – Lesson 9 – 加速ML模型訓練的兩大方法(如何設定batch/檢查loss頻率)、batch size, iteration, epoch的概念和比較

前言

這幾天的文章會是一系列的,會需要一起看才比較能看懂整個ML模型的輪廓,
然而因為一天能寫的內容量有限,所以我會在前言部分稍微說明我寫到哪。

複習一下ML的整個訓練過程

因為ML模型的訓練階段章節內容會分很多部分,我們要先確認好自己在哪個階段,
以免吸收新內容卻不知道用在內容的什麼地方。

★ML的整個「訓練過程」:這裡以監督式學習(Supervised Learning)為例

階段要做的事情簡介
(訓練前)決定資料集與分析資料你想要預測的是什麼資料? 這邊需要先知道 examplelabelfeatures的概念。介紹可參考:【Day 15】,而我們這次作為範例的訓練資料集介紹在【Day 19】
(訓練前)決定問題種類依據資料,會知道是什麼類型的問題。regression problem(回歸問題)? classification problem(分類問題)? 此處可參考:【Day 16】、與進階內容:【Day 17】
(訓練前)決定ML模型(ML models)依據問題的種類,會知道需要使用什麼對應的ML模型。回歸模型(Regression model)? 分類模型(Classification model)? 此處可參考:【Day 18】神經網路(neural network)? 簡介於:【Day 25】
(模型裡面的參數)ML模型裡面的參數(parameters)超參數(hyper-parameters) 此處可參考:【Day 18】
(訓練中) 調整模型評估當前模型好壞損失函數(Loss Functions):使用損失函數評估目前模型的好與壞。以MSE(Mean Squared Error), RMSE(Root Mean Squared Error), 交叉熵(Cross Entropy)為例。此處可參考:【Day 20】
(訓練中) 調整模型修正模型參數梯度下降法 (Gradient Descent)為例:決定模型中參數的修正「方向」與「步長(step size)」此處可參考:【Day 21】
(訓練中) 調整腳步調整學習腳步透過學習速率(learning rate)來調整ML模型訓練的步長(step size),調整學習腳步。(此參數在訓練前設定,為hyper-parameter)。此處可參考:【Day 22】
(訓練中) 加快訓練取樣與分堆設定batch size,透過batch從訓練目標中取樣,來加快ML模型訓練的速度。(此參數在訓練前設定,為hyper-parameter)。與迭代(iteration),epoch介紹。此處可參考:【Day 23】
(訓練中) 加快訓練檢查loss的頻率調整「檢查loss的頻率」,依據時間(Time-based)步驟(Step-based)。此處可參考:【Day 23】
(訓練中) 完成訓練(loop) -> 完成重覆過程(評估當前模型好壞 -> 修正模型參數),直到能通過「驗證資料集(Validation)」的驗證即可結束訓練。此處可參考:【Day 27】
(訓練後)訓練結果可能問題「不適當的最小loss?」 此處可參考:【Day 28】
(訓練後)訓練結果可能問題欠擬合(underfitting)?過度擬合(overfitting)? 此處可參考:【Day 26】
(訓練後)評估 – 性能指標性能指標(performance metrics):以混淆矩陣(confusion matrix)分析,包含「Accuracy」、「Precision」、「Recall」三種評估指標。簡介於:【Day 28】、詳細介紹於:【Day 29】
(訓練後)評估 – 新資料適用性泛化(Generalization):對於新資料、沒看過的資料的模型適用性。此處可參考:【Day 26】
(訓練後)評估 – 模型測試使用「獨立測試資料集(Test)」測試? 使用交叉驗證(cross-validation)(又稱bootstrapping)測試? 此處可參考:【Day 27】
(資料分堆的方式)(訓練前) 依據上方「模型測試」的方法,決定資料分堆的方式:訓練用(Training)、驗證用(Validation)、測試用(Test)。此處可參考:【Day 27】

而今天的文章我們要來討論一下「加快ML模型訓練的方法」。

Course – Launching into Machine Learning

第三章節的課程地圖:(紅字標記為本篇文章中會介紹到的章節)
* Optimization
* Introduction to Optimization
* Introduction
* Defining ML Models
* Defining ML Models
* Introducing the Natality Dataset
* Introducing Loss Functions
* Gradient Descent
* Gradient Descent
* Troubleshooting a Loss Curve
* ML Model Pitfalls
* TensorFlow Playground
* Lab: Introducing the TensorFlow Playground
* Lab: TensorFlow Playground – Advanced
* Lab: Practicing with Neural Networks
* Loss Curve Troubleshooting
* Performance Metrics
* Performance Metrics
* Confusion Matrix
* Module Quiz


0. 一樣先來個重點整理,下面會有詳細介紹

  • 加速訓練的方法:
    • 調整「計算偏微分時的資料總數」
      • 利用batch的方法
    • 調整我們「檢查loss的頻率」
      • 基於固定時間(Time-based)的檢查
      • 基於固定步驟(Step-based)的檢查
  • 一大堆有關batch的名詞整理:

名詞種類意義
mini-batching方法(method)抽樣的方法
batches被抽樣到的資料(data)使用抽樣的方法得到的資料(subset of dataset)
batch size樣本數大小(size, number)代表抽樣的數目、樣本數大小(size, number)
mini-batch size同上mini-batch size比較常被稱作batch size
mini-batch gradient descent方法(method)使用抽樣的結果去做gradient descent
term batch gradient descent方法(method)使用分堆的方式,也就是將「全部資料都下去分堆」。與mini-batch gradient descent最大的不同在於抽樣「使不使用全部資料」(另外一個只抽樣),另外這個比較常用
  • batch size迭代(iteration)epoch的概念比較:
    > 假設我現在有400筆資料,我做分堆:
    > 我決定一堆的大小(batch size)要有40筆資料,
    > 這樣一共會有10堆(通常稱為number of batches,batch number),
    > 也就是說每一輪我要學10堆資料,也就是學10個迭代(iteration)
    > 學完「10個迭代(iteration)」後,等於我把資料集全部都看過一次了。
    > 這樣就是一輪(epoch)訓練的結束。
    > .
    > 會有batch size迭代(iteration)epoch這些詞的原因,
    > 是因為通常ML學習的資料量都很大,我們會需要分比較小堆。

1. ML Model Pitfalls

課程地圖
* Optimization
* Gradient Descent
* ML Model Pitfalls

有個常見的情況是,每次當我們重新訓練ML模型的時候,
明明是一樣的code,我們也希望能產生一樣的實驗結果,但往往結果不同。
但通常我們會希望每次訓練的結果皆相同,這樣才是一個穩定的模型。

在ML裡面,很多時候我們再進行第二次訓練時,即使使用完全相同的hyperparameter
最後訓練出來的參數(parameter)結果也會完全不同。
這似乎是不太好的現象,我們希望尋找的是一個最佳參數(parameter)解,
結果不同,難道是gradient descent無效或是我們實作錯誤嗎?

https://ithelp.ithome.com.tw/upload/images/20190924/20120424D5K3Ua5tnK.png

並不一定,我們從上圖可以看出,當我們在搜尋Loss的表面時,
Loss的表面可能不單純像左圖只有一個山谷,
像右邊多於一個山谷的才是比較常見的Loss表面,
這個特性有個名稱叫做凸性(convexity)

  • 左邊的是convex surface(凸面)
  • 右邊的是non-convex surface(非凸面)

為什麼loss surface可能會有不只一個最小值?

這意思是在參數空間(parameter space)中有很多等值(或接近等值)的點,
(這裡的等值 = 參數算出來的loss等值)
也就是說這些參數的設置,都能是「具有相同的預測能力」的ML模型。

自己的註:

也就是說,不同的參數組合,算出「一樣的loss」,等於具有「相同的預測能力」。

我們會在稍後介紹神經網路(neural networks)再更仔細的討論這問題。
(因為這樣的情況主要發生在神經網路(neural networks))

我們只要先記得loss surface會因為擁有的最小值數量,而有不同數量的山谷。

自己的註:

最大值(最小值)有分成兩種:local maxima(minima), global maxima(minima)
local指的是區域性的,也就是一個範圍內的最大(最小)
global指的是全域性的,也就是全部範圍內的最大(最小)
以山來比喻,山都會有主峰,主峰就是全部(global)最高的山,
但除了主峰之外還有有次高峰、第三高峰…,這些都是區域性(local)的最高。
我們指的很多山谷就是因為有很多local minima,然而最深的谷只會有一個。

https://ithelp.ithome.com.tw/upload/images/20190924/20120424xXFFLo4qb7.png

我們在訓練時,時常會覺得完成訓練時間太長,我們要來思考怎麼樣可以加快我們的訓練速度?

不過為了要討論這問題,我們先從比較高階的角度看所有的步驟,
並從演算法的角度去分析他們的time complexity,

我們將訓練的主要演算法分成三大步驟:

★Step 1 : 計算導數(偏微分),上圖
* 當我們計算偏微分時,「計算的時間成本」會與我們需要放入loss function的「比較資料數量」成正比,也會與我們ML「模型參數的總量」成正比。
* 而「模型參數的總量」可以從數千到數億個不等。
* 同樣的「比較資料的數量」也可以從數千到到數千億不等。

自己的小註記:

Step 1 : 計算導數(偏微分) 這階段影響訓練速度的關鍵在於:
* 模型參數(parameters)的總量
* 比較資料(label)的數量

https://ithelp.ithome.com.tw/upload/images/20190924/201204249jSGg5ZcCH.png
★Step 2 : 參數更新

在這張圖中,「每個循環」也代表會「參數會更新一次」,
而這「時間成本」僅由模型內「參數的數量」影響,
然後,相對其他步驟,「更新參數」時間的時間成本較小。

自己的小註記:

Step 2 : 參數更新 這階段影響訓練速度的關鍵在於:
* 模型參數(parameters)的總量
-> 但「更新參數」本身影響的時間相對其他步驟不多。

https://ithelp.ithome.com.tw/upload/images/20190924/20120424vt3wjD1WZl.png
★Step 3 : 檢查loss

我們來想一下計算Loss的時間,這個步驟的時間複雜度,
會與我們的「想要計算loss的總資料數(label數)」與「我們模型的複雜度」成正比,

但特別的是,即使我們說這一個循環有這三個步驟,
但「檢查loss」的步驟不需要每次都做,
因為通常loss function的變化都是在逐漸好的方向變化。

自己的小註記:

Step 3 : 檢查loss 這階段影響訓練速度的關鍵在於:
* 想要計算loss的總資料數(label數)
* 模型參數(parameters)的總量
* 檢查 loss 的頻率


所以經由上述簡單的討論,我們應該心理先有個底了,
我們該怎麼做才能加快訓練的速度呢?

  • 首先,模型裡面的參數如果是固定的數量,
    未來我們會提到我們可以將裡面的參數做「正規化(regularization)
  • 另外,雖然減少檢查loss的總資料數(label數)聽起來會有用,但我們通常不建議這樣做。

自己的註:

正規化(regularization):可以讓模型的數字被限制在一定的範圍,
例如原本所有的ML模型內的參數可能介於「1~1000」,
透過正規化(regularization)的縮放,我們可以縮小1000倍(只是舉例),
參數就會變成「0.001~1」,這樣的好處在於我們可以避免做「大數運算」。

https://ithelp.ithome.com.tw/upload/images/20190924/20120424S3qSAkOIsd.png

取而代之的,我們有兩大手段作為我們加快訓練速度的關鍵:
* 調整我們「計算偏微分時的資料總數」
* 調整我們「檢查loss的頻率」

https://ithelp.ithome.com.tw/upload/images/20190924/20120424Yo3KAaE7zw.png

正如同我們前面所說,我們能加快模型訓練速度的關鍵之一是「調整我們計算偏微分的資料數」

記得:

偏微分來自於我們的loss function,
而我們的loss function是將很多預測的error組合在一起的值。

所以這個方法需要減少「我們給loss function」的資料總數在每一輪迭代(iteration)中,
到這裡,我們可以先停下來想一下為什麼這樣是可以的。

為何這個方法沒有問題?

主要是因為我們可以從我們的訓練資料中抽取樣本,
而這個樣本與其他相比是平均且平衡的。
我們在之後會講到關於抽樣的陷阱以及如何避免,
而現在我們先知道抽樣的策略是從我們的資料集用統一的機率抽樣的。
所以所有在訓練資料集的例子都有一樣均等的機會被模型看過。

在ML中,我們將這種在從訓練集中抽樣的做法稱為mini-batching
原本我們所計算的gradient descent預設會使用所有的資料集,
然後使用mini-batching的資料,我們可以算出mini-batch gradient descent
而這些資料被抽樣出的資料被稱為batches

mini-batch gradient descent具有許多的好處:
* 花費更少的時間運算
* 使用更少的記憶體
* 很容易做平行運算

另外一個很常聽到的名稱term batch gradient descent
batch指的是以分批(batch)的方式來處理,
所以batch gradient descent會計算整個資料集,
mini-batch gradient descent不相同。

這裡我們討論的是mini-batch gradient descent
但有個常讓人搞錯的地方是,mini-batch size時常被稱作batch size
TensorFlow也是這樣稱呼的,所以我們也這樣稱呼他。

在之後的討論中,如果我們討論到有關於batch size的事情時,
我們就是在討論mini-batch gradient descent的「樣本數大小」。

自己的註:

這邊名詞太多覺得很混亂嗎XD?
簡單整理一下:

名詞種類意義
mini-batching方法(method)抽樣的方法
batches被抽樣到的資料(data)使用抽樣的方法得到的資料(subset of dataset)
batch size樣本數大小(size, number)代表抽樣的數目、樣本數大小(size, number)
mini-batch size同上mini-batch size比較常被稱作batch size
mini-batch gradient descent方法(method)使用抽樣的結果去做gradient descent
term batch gradient descent方法(method)使用分堆的方式,也就是將「全部資料都下去分堆」。與mini-batch gradient descent最大的不同在於抽樣「使不使用全部資料」(另外一個只抽樣)

★另外再送大家batch size迭代(iteration)epoch的概念比較:

假設我現在有400筆資料,我做分堆:
我決定一堆的大小(batch size)要有40筆資料,
這樣一共會有10堆(通常稱為batch number,number of batches),
也就是說每一輪我要學10堆資料,也就是學10個迭代(iteration)
學完「10個迭代(iteration)」後,等於我把資料集全部都看過一次了。
這樣就是一輪(epoch)訓練的結束。
.
會有batch size迭代(iteration)epoch這些詞的原因,
是因為通常ML學習的資料量都很大,我們會需要分比較小堆。
.
參考資料:神經網路中Epoch、Iteration、Batchsize相關理解和說明

https://ithelp.ithome.com.tw/upload/images/20190924/20120424CiZWvxGg6K.png

我們來討論一下那mini-batches應該有多大?
batch size也像learning rate一樣是hyperparameter,
而且同樣的,這兩個的最佳值都是「因題目而異」的,
我們一樣可以使用hyperparameter tuning的方法找到他,
我們也會在後面一並詳細介紹。

通常batch sizes會介於10~1000個樣本之間。

https://ithelp.ithome.com.tw/upload/images/20190924/201204242vKdw5D43n.png

另外一個我們提到加速訓練的關鍵是改變我們檢查loss的頻率,
稍微想一下,儘管一個個檢查每一個資料集的子集合是好事,但未必對訓練時間是好的。

上面是我們將我們的講法轉換後寫出的code,想法非常的簡單,
我們加入一些邏輯,使得計算loss function的高時間代價能夠減少計算的頻率,

現代檢查loss function的頻率很多有名的策略:
* 基於固定時間的檢查(Time-based) -> 例如:每三十分鐘檢查一次loss
* 基於固定步驟的檢查(Step-based) -> 例如:每一千個步驟檢查一次loss

我們減少檢查loss的頻率,並且引入mini-batching這套方法,
我們開始將模型訓練的兩個基本部分分開並各自調整,
「更改我們模型的參數」與「檢查我們是否有做正確的修正」。


本文同步發佈在: 第 11 屆 iT 邦幫忙鐵人賽
【Day 23】 Google ML – Lesson 9 – 加速ML模型訓練的兩大方法(如何設定batch/檢查loss頻率)、batch size, iteration, epoch的概念和比較


參考資料

⭐Google Machine Learning 相關文章整理⭐:
1.訂閱課程【Google ML】1 – Google ML – 參賽原因 與 就先從認識 coursera 與訂閱課程開始第一天吧
⭐ML 基礎知識篇⭐:
1.基礎ML知識什麼是ML? 為什麼ML最近才紅起來? 可參考:【Day 3】
2.設計ML問題如何設計一個ML問題?可參考:【Day 4】
3.ML與一般算法比較比較一般算法與ML算法,看出ML的優勢。可參考:【Day 11】
⭐ML 應用策略篇⭐:
1.ML的成功策略使用ML要成功,常需要的關鍵策略。可參考:【Day 5】
2.ML各階段與比重分配企業運行ML時,在ML的各階段應該放的比重與心力。可參考:【Day 6】
3.ML失敗的常見原因大部分企業使用ML卻失敗的前十大主因。可參考:【Day 6】
4.企業如何引入MLML在企業運行的五大階段與注意事項。 可參考:【Day 7】
⭐GCP 認識篇⭐:
1.在GCP上運行ML的階段在GCP上運行ML大概有哪五大階段? 可參考:【Day 2】
2.GCP上ML的介紹GCP上ML的介紹。可參考:【Day 8】【Day 11】
3.已訓練好的ML模型已訓練好的ML模型。建議可直接使用,不需要再自己訓練。如:Vision API(圖片辨識), Video intelligence API(影片辨識), Speech API(語音辨識), Translation API(語言翻譯), Natural Language API(自然語言處理)。介紹:【Day 4】詳細整理與比較:【Day 12】lab實作:【Day 14】
⭐GCP 上的 lab 實作篇⭐:
1.Lab 事前準備Lab 0 – 在GCP上開始lab前的事前準備與注意事項。可參考:【Day 9】
2.GCP上使用 VMLab 1 – 在GCP上分析地震資料與製圖,並儲存在雲端。可參考: 【Day 10】
3.BigQuery 與 DatalabLab 2 – 使用 BigQuery 與 Datalab 視覺化分析資料。可參考:【Day 13】
4.google ML APIsLab 3 – 使用google已訓練好的ML模型進行實作。如:Vision API(圖片辨識), Video intelligence API(影片辨識), Speech API(語音辨識), Translation API(語言翻譯), Natural Language API(自然語言處理)。可參考:【Day 14】
⭐ML中的不同學習種類⭐:
1.【Day 15】 監督式學習(Supervised Learning) 與 非監督式學習(Unsupervised Learning) 的介紹和比較
⭐訓練「一個」ML模型⭐:
(這裡以 監督式學習(Supervised Learning) 為例)
1. (訓練前)決定資料集與分析資料你想要預測的是什麼資料? 這邊需要先知道 example、label、features的概念。介紹可參考:【Day 15】而我們這次作為範例的訓練資料集介紹在:【Day 19】
2. (訓練前)決定問題種類依據資料,會知道是什麼類型的問題。regression problem(回歸問題)? classification problem(分類問題)? 此處可參考:【Day 16】與進階內容:【Day 17】
3. (訓練前)決定ML模型(ML models)依據問題的種類,會知道需要使用什麼對應的ML模型。回歸模型(Regression model)? 分類模型(Classification model)? 此處可參考:【Day 18】神經網路(neural network)? 簡介於:【Day 25】
4.(模型裡面的參數)ML模型裡面的參數(parameters)與超參數(hyper-parameters) 此處可參考:【Day 18】
5. (訓練中) 調整模型評估當前模型好壞損失函數(Loss Functions):使用損失函數評估目前模型的好與壞。以MSE(Mean Squared Error), RMSE(Root Mean Squared Error), 交叉熵(Cross Entropy)為例。此處可參考:【Day 20】
6. (訓練中) 調整模型修正模型參數以梯度下降法 (Gradient Descent)為例:決定模型中參數的修正「方向」與「步長(step size)」此處可參考:【Day 21】
7. (訓練中) 調整腳步調整學習腳步透過學習速率(learning rate)來調整ML模型訓練的步長(step size),調整學習腳步。(此參數在訓練前設定,為hyper-parameter)。此處可參考:【Day 22】
8. (訓練中) 加快訓練取樣與分堆設定batch size,透過batch從訓練目標中取樣,來加快ML模型訓練的速度。(此參數在訓練前設定,為hyper-parameter)。與迭代(iteration),epoch介紹。此處可參考:【Day 23】
9. (訓練中) 加快訓練檢查loss的頻率調整「檢查loss的頻率」,依據時間(Time-based)與步驟(Step-based)。此處可參考:【Day 23】
10. (訓練中) 完成訓練(loop) -> 完成重覆過程(評估當前模型好壞 -> 修正模型參數),直到能通過「驗證資料集(Validation)」的驗證即可結束訓練。此處可參考:【Day 27】
11. (訓練後)訓練結果可能問題「不適當的最小loss?」 此處可參考:【Day 28】
12. (訓練後)訓練結果可能問題欠擬合(underfitting)?過度擬合(overfitting)? 此處可參考:【Day 26】
13. (訓練後)評估 – 性能指標性能指標(performance metrics):以混淆矩陣(confusion matrix)分析,包含「Accuracy」、「Precision」、「Recall」三種評估指標。簡介於:【Day 28】詳細介紹於:【Day 29】
14. (訓練後)評估 – 新資料適用性泛化(Generalization):對於新資料、沒看過的資料的模型適用性。此處可參考:【Day 26】
15. (訓練後)評估 – 模型測試使用「獨立測試資料集(Test)」測試? 使用交叉驗證(cross-validation)(又稱bootstrapping)測試? 此處可參考:【Day 27】
16.(資料分堆的方式)(訓練前) 依據上方「模型測試」的方法,決定資料分堆的方式:訓練用(Training)、驗證用(Validation)、測試用(Test)。此處可參考:【Day 27】
⭐從所有ML模型的訓練結果中,找到「最好的」ML模型⭐:
( 原因:「訓練好一個模型」不等於「找到最好的模型」 )
1.(訓練模型)【Day 27】 使用「訓練資料集(Training)」訓練模型(調整參數),也就是「上方表格」在做的內容
2.(結束訓練)【Day 27】 訓練到通過「驗證資料集(Validation)」結束訓練(未達到overfitting的狀態前)
3.(模型再調整)【Day 27】 超參數(hyperparameters)調整或神經網路的「layer數」或「使用的node數」(一些訓練前就會先決定的東西)
4.(loop)【Day 27】 (模型再調整)後,重複上述(訓練模型)、(結束訓練),完成訓練新的模型
5.(找到最佳模型)【Day 27】 從「所有訓練的模型」中,找到能使「驗證用資料集(Validation)」最小的loss,完成(找到最佳模型)
6.(決定是否生產)【Day 27】 可以開始決定要不要將此ML模型投入生產。此時我們可以使用「獨立測試資料集(Test)」測試? 使用交叉驗證(cross-validation)(又稱bootstrapping)測試?
⭐訓練 ML 模型的小實驗⭐:
1.【Day 24】 TensorFlow Playground 的簡介與介面介紹
2.【Day 24】 learning rate 的改變對訓練過程的影響
3.【Day 25】 使用神經網路(neural network)分類資料
4.【Day 25】 觀察batch size如何影響gradient descent
⭐30天內容回顧與課程索引, 參賽心得, 未來計畫與感謝⭐:
1.【Google ML】30 – 30天內容回顧與課程索引, 參賽心得, 未來計畫與感謝
⭐【喜歡我的文章嗎? 歡迎幫我按讚~ 讓基金會請創作者喝一杯咖啡!
如果喜歡我的文章,請幫我在下方【按五下Like】 (Google, Facebook 免註冊),會由 「LikeCoin」 贊助作者鼓勵繼續創作,讀者們「只需幫忙按讚,完全不用出錢」哦!

likecoin-steps
Howard Weng
Howard Weng

我是 Howard Weng,很多人叫我嗡嗡。這個網站放了我的各種筆記。希望這些筆記也能順便幫助到有需要的人們!如果文章有幫助到你的話,歡迎幫我點讚哦!
另外,因為定位是「個人的隨手筆記」,有些文章內容「⚠️可能我理解有誤⚠️」或「?只寫到一半?」,如果有發現這樣的情況,歡迎在該文章的最下面留言提醒我!我會儘快修正或補上!感謝大家的建議與幫忙,讓網站能變得更好?

文章: 890

★留個言吧!內容有誤或想要補充也歡迎與我討論!