電腦學會如何學習了嗎?——類神經網路學習分類
類神經網路如何自動調整權重?
誤差與學習演算法 學習分類昆蟲資料 激勵函數與學習演算法
類神經網路如何自動調整權重?
在先前的單元中,我們認識到類神經網路以及它的應用,
我們也深入介紹了類神經網路中的概念,像是「權重」、「誤差」、「激勵函數」等,
還記得我們一開始「手動」調整權重嗎?
在這個章節,我們將開始介紹類神經網路如何「自動」調整權重。
這時候,先回想一下「調整權重」的目的是什麼?
思考一下,回答問題
問題一
「調整權重」的目的是什麼?
清楚知道調整權重的目的後,我們來正式開始介紹如何「自動」調整權重吧。
在先前的課程,我們將「誤差」定義為「期望輸出」減去「輸出」,
而如果誤差為正,就需要增加類神經網路的輸出;如果誤差為負,就需要減少類神經網路的輸出,
依照這個想法,在1958年時,Frank Rosenblatt提出了一種學習演算法:
wit+1 = wit + 𝛼 * xi * Errort
(演算法中的「Error」即為「誤差」)
這個演算法主要的設計原理是透過誤差來決定權重需要多少調整,
如果誤差很大,權重調整的幅度就會大,反之則調整幅度就會小,
而演算法當中的「𝛼 * xi * Errort」,
就是在每次迭代中,決定權重需要調整多少的計算方式,
𝛼值為「學習率」,它是一個介在0和1的正數(它通常不會是0),
可以調整每次權重的調整幅度,而xi就是類神經網路的輸入值,
重點總結
在本章節中,我們介紹了一種學習演算法,理解它可能要花費一些心思,
在下個章節中,我們會用更簡單的比喻來說明這個演算法,
並且在本章的模擬操作中,我們會再用更實際的案例來運用這個學習演算法,
讓你能夠更加熟悉這個概念。
回到最上方