Page 29 - Learning Mahasiswa
P. 29

-  Fungsi aktivasi

                                  Fungsi aktivasi yang digunakan pada multilayer perceptron

                           adalah  fungsi  aktivasi  sigmoid.  Arsitektur  multilayer  perceptron

                           menggunakan  fungsi  sigmoid  untuk  nilai  output  yang  terletak
                           pada interval  0 sampai 1. Namun, fungsi ini bisa  juga digunakan
                           oleh jaringan syaraf yang nilai outputnya 0 atau 1 (Gambar 11).


                              -  Algoritma pelatihan

                                  Pembelajaran         algoritma       ini    dilakukan       dengan

                           pengupdetan bobot balik (back propagation). Penetapan bobot
                           yang  optimal  akan  berujung  pada  hasil  prediksi  yang  tepat.

                           Algoritma multilayer perceptron dapat dibagi ke dalam 2 bagian:

                           a.  Algoritma pelatihan
                               Terdiri  dari 3  tahap  yaitu tahap  umpan maju pola pelatihan

                           input, tahap  pemropagasibalikan  error,  dan  tahap  pengaturan

                           bobot.  Langkah  pelatihan  dalam  algoritma  backpropagation

                           adalah sebagai berikut (Myatt, 2007):

                               1. Inisialisasi bobot jaringan secara acak (biasanya antara -0.1
                                  sampai 1.0)

                               2. Pada  setiap  data  training,  input  dihitung  untuk  simpul

                                  berdasarkan  nilai  input  dan  bobot  jaringan  saat  itu,

                                  menggunakan rumus:

                                                      inputj = ∑       oi Wij + θj
                                                                    =1
                                  Keterangan:

                                  Oi      = output simpul i dari layer sebelumnya
                                  wij     =  bobot relasi dari  simpul i  pada  layer sebelumnya ke

                                          simpul j
                                  θj      = bias (sebagai pembatas)












                                                               22
   24   25   26   27   28   29   30   31   32   33   34