Yazan : Şadi Evren ŞEKER

Geri yayılımlı (Backpropagation) ağlarda öğrenme iki adımda olur:

1. Giriş katmanında öğrenilmsi istenen verinin modellenmesi

2. Meyilli azalma kullanılarak toplam hatanın asgarileştirilmesi (minimisation)

Burada meyilli azalım için kullanılan ve her sinapsis üzerindeki değişimi veren:

Δwji = -ε [dE/dwji]

formülü kullanılabilir. Buradaki sinapsis değişimi hatanın (E) mevcut sinapsis ağırlık değeri üzerindeki türevi ile adım boyu (step size) (ε) değerinin çarpımına eşittir.

Buradaki adım boyu, sistemin oturması ve kararlı olması için geçen adım miktarını etkilemektedir.

Aşağıdaki şekilde meyilli azalımın 2 boyutlu kartezyen uzaydaki hareketi gösterilmiştir:

Yukarıda da tasvir edildiği üzere hata miktarının artması ve doğru ağırlık (W) değerine sistemin oturması yerel minimum değerinin türev ile bulunması ile mümkündür.

Sistemin toplam hata miktarı ise sistemdeki yerel hataların toplamıdır. Bu değer beklenen çıktıdan nekadar uzak olduğumuzun hesaplanması ile bulunabilir.

Yorumlar

  1. Ahmet

    Hocam iyi akşamlar,

    Grafiğin altındaki açıklamada,

    "Yukarıda da tasvir edildiği üzere hata miktarının artması ve doğru ağırlık (W) değerine sistemin oturması yerel minimum değerinin türev ile bulunması ile mümkündür." Cümlesinde hata miktarının, artması yerine azalması kelimesinin kullanılması gerekmez mi?

    Saygılarımla.

Bir Cevap Yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir


7 × altı =