Yazan : Şadi Evren ŞEKER

Bilgisayar bilimlerindeki yapay sinir ağlarının eğitimi sırasında kullanılan bir kuraldır. Hebbian kuramı (Hebbian theory), hebbian kuralı (hebbian rule) isimleri ile de anılmaktadır. Bu kuralı basitçe “Birlikte ateşlenenleri birlikte bağla” şeklinde özetleyebiliriz. Buna göre iki sinir hücresinin birlikte ateşlenmeleri ile ayrı ayrı ateşlenmeleri arasında sistemin eğitimi açısından fark olmaktadır. Basitçe aynı anda ateşlenen sinir hücreleri ayrı ayrı ateşlenselerdi sisteme etkileri daha düşük olur.

Aslında biyolojik çalışmalar sonucunda elde edilmiş olan bu kuralı yapay sinir ağlarına uygulamak ve başarılı sonuçlar elde etmek mümkündür.

Hebb kuralında her sinapsisin yeni ağırlığı basitçe giriş çıkış ve öğrenme oranının çarpımıdır.

Δwij = μ ai ji

Yukarıdaki bu formülde her sinapsisin (i ve j indisindeki) ağırlığındaki değişim oranı giriş(ai ) ve çıkışın (ji) çarpımıdır.  μ sembolü ile ifade edilen değer ise öğrenme oranıdır. Buna göre μ değeri arttıkça ağırlık değişimleri artmakta buna paralel olarak da eğitim hızı artmaktadır.

Aşağıdaki fonksiyon ile hesaplanabilir:

float ogrenme ( float giris, float cikis , float oran){

return giris*cikis*oran;

}

Bu öğrenme miktarı ise ilgili ağırlık matrisine eklenmelidir :

w[i][j] += ogrenme (giris[i],cikis[j],oran);

şeklinde  artış hesaplanabilir. Bu işlemin sayısal bir örneğini aşağıdaki tabloda görebiliriz:

Durumlar Nöron Değeri Nöron Çıktısı Hebb Öğrenme Oranı Ağırlık Değişimi
Durum 1 +1 -1 1*1*-1 -1
Durum 2 -1 +1 1*-1*1 -1
Durum 3 +1 +1 1*1*1 +1
Durum 4 -1 -1 1*-1*-1 +1

Yukarıda görüldüğü üzere farklı durulmardaki nöronların farklı girdi ve çıktılar için ağırlığın nasıl değişeceği hesaplanmıştır. Yukarıdaki formüllerde öğrenme oranı 1 olarak sabit alınmıştır ancak farklı uygulamalarda bu sayının değişmesi mümkündür.

Bir Cevap Yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir


5 × = onbeş