Tingkat Eror Jaringan Backpropagation pada Model Neuron 15-26-1 dan 15-29-1
Abstract
Jaringan Backpropagation merupakan salah satu paradigma pembelajaran dalam jaringan syaraf tiruan terawasi yang banyak dijadikan untuk pengembangan aplikasi. Kinerja jaringan syaraf tiruan ditentukan oleh algoritma pelatihan yang digunakan, sedangkan kinerja algoritma pelatihan dipengaruhi oleh banyaknya neuron dalam lapisan input dan besarnya laju pemahaman (learning rate). Keoptimalan kinerja ini bisa dilihat dari eror yang dihasilkan. Semakin kecil eror yang dihasilkan maka semakin optimal kinerja dari algoritma. Pada penelitian ini dilakukan pengujian terhadap 12 algoritma pelatihan yang terdapat dalam jaringan Backpropagation untuk diketahui algoritma paling optimal ditinjau dari tingkat eror paling kecil dengan menggunakan beberapa variasi nilai learning rate (lr) mulai dari 0.01 hingga 1.0. Penelitian ini menggunakan 2 model neuron yaitu 15-26-1 dan 15-29-1 (15 neuron input, 1 neuron output dan dua macam jumlah neuron pada lapisan tersembunyi yaitu 26 dan 29). Pembandingan tingkat eror dari keduabelas algoritma pelatihan dengan dua macam model neuron dilakukan menggunakan uji statistik ANOVA. Hasil penelitian menunjukkan bahwa algoritma pelatihan yang paling optimal ditinjau dari tingkat eror terkecil yaitu algoritma Levenberg Marquardt (LM) dengan nilai eror terkecil terjadi pada model neuron 15-26-1 sebesar 0.00011140701, sedangkan pada model neuron 15-29-1 sebesar 0.00012592701. Keduanya terdapat pada nilai lr = 0.8.