Page 19 - Learning Dosen
P. 19

Gambar 6 Fungsi Aktivasi Linear
                                                      Sumber: wikipedia.org
                           b.  Fungsi Rectified Linear Unit (ReLU)

                               Pada  fungsi  ini  input  dari  neuron  berupa  bilangan  negatif,

                           kemudian fungsi tersebut diterjemahkan ke dalam nilai 0 dan jika
                           input bernilai positif maka output dari neuron adalah nilai aktivasi

                           itu sendiri. Kelebihan dari fungsi ReLU yaitu dapat mempercepat

                           proses  konfigurasi  yang  dilakukan  dengan  Stochastic  Gradient

                           Descent  (SGD).  Namun  fungsi  ini  juga  memiliki  kelemahan  yaitu
                           dapat membuat unit mati apabila learning rate yang diinisialisasi

                           terlalu  tinggi,  jika  learning  rate  yang  diinisialisasi  secara  tepat

                           maka  hal  tersebut  tidak  menjadi  masalah.  fungsi  aktivasi  ReLU

                           ditunjukkan pada Gambar 7.





















                                                  Gambar 7 Fungsi Aktivasi ReLU

                                                      Sumber: wikipedia.org





                                                               12
   14   15   16   17   18   19   20   21   22   23   24