電腦學會如何學習了嗎?——類神經網路學習分類



類神經網路如何自動調整權重?

誤差與學習演算法 學習分類昆蟲資料 激勵函數與學習演算法

類神經網路如何自動調整權重?

在先前的單元中,我們認識到類神經網路以及它的應用

我們也深入介紹了類神經網路中的概念,像是「權重」「誤差」「激勵函數」等,

還記得我們一開始「手動」調整權重嗎?

在這個章節,我們將開始介紹類神經網路如何「自動」調整權重

這時候,先回想一下「調整權重」的目的是什麼?

思考一下,回答問題

問題一

「調整權重」的目的是什麼?

清楚知道調整權重的目的後,我們來正式開始介紹如何「自動」調整權重吧。

在先前的課程,我們將「誤差」定義為「期望輸出」減去「輸出」,

而如果誤差為正,就需要增加類神經網路的輸出;如果誤差為負,就需要減少類神經網路的輸出,

依照這個想法,在1958年時,Frank Rosenblatt提出了一種學習演算法

wit+1 = wit + 𝛼 * xi * Errort

(演算法中的「Error」即為「誤差」)

這個演算法主要的設計原理是透過誤差來決定權重需要多少調整,

如果誤差很大,權重調整的幅度就會大,反之則調整幅度就會小

而演算法當中的「𝛼 * xi * Errort」,

就是在每次迭代中,決定權重需要調整多少的計算方式,

𝛼值為「學習率」,它是一個介在0和1的正數(它通常不會是0),

可以調整每次權重的調整幅度,而xi就是類神經網路的輸入值,

重點總結

在本章節中,我們介紹了一種學習演算法,理解它可能要花費一些心思,

在下個章節中,我們會用更簡單的比喻來說明這個演算法,

並且在本章的模擬操作中,我們會再用更實際的案例來運用這個學習演算法,

讓你能夠更加熟悉這個概念。

回到最上方