技術應用技術應用

魔鬼藏在細節裡—解密AI精度關鍵三大因素

在前期電子報中我們曾分析過,建立AI模型所需要的步驟及流程。當我們進行AI模型的訓練時會因顯示卡規格、神經網絡架構的不同,而需要調整訓練參數。參數也是AI訓練中的關鍵一環,以下將介紹影響AI精準度的三個重要參數:

1. Batch Size

Batch Size就像一台貨車,這台貨車的乘載量取決於GPU的記憶體大小,貨車越大,一次能夠搬移的量就越大。例如:我們要將資料從A倉庫搬到B倉庫,Batch Size : 32,代表我有一台乘載量為32箱的貨車,一次只能搬運32箱物體。也就是說GPU記憶體越大,一次就能提取越多的影像進行分析。

2. Number of Epochs

仍然以貨車為例,我們每一次把資料從A倉庫搬到B倉庫的過程,就是完整的一次Epochs。所以一個 Epochs就意味著訓練集中的每張影像,都有機會套用到AI運算中更新模型參數。 

3. Learning Rate

假設以台北為出發地,台中為終點,learning rate就是我們每次移動的固定距離。如果把單次移動的距離拉大,雖然能快速南移,但也因為移動速度太快,反而有可能跑到台中以南的地方。相反地,如果把移動距離縮小,抵達的地點可能會落在新竹或苗栗,但也會導致所花費的移動時間更長。這就像是每一次運算時都會涉及參數修改,但是參數修改也一定會對訓練的時間及精準度造成影響。

實際應用案例
如果預設Batch Size是32,Learning Rate為0.003,但由於顯示卡記憶體不足,因而無法將Batch Size設置到32進行訓練,則須修改設定為Batch Size :16以及Learning Rate:0.0015。
因為每次批量提取的影像減少了一半,為了避免錯過最佳解,所以會建議將學習曲線(Learning Rate)的數值縮小,以避免學習收斂速度過快,導致模型錯過最佳解的位置。 


由於篇幅所限,如果您希望更進一步瞭解AI的訓練參數和應用,歡迎報名LINX Taiwan的AI企業私教班課程,只須攜帶您的專案影像,三小時後就能帶走一份立即可用的評估報告、並且掌握基本的AI訓練技巧。參加課程的同學還能獲得60天的免費試用版,讓您在課後也能持續練習及測試!立即瞭解更多詳情: