Yazan : Şadi Evren ŞEKER

Bu yazının amacı, bilgisayar mühendisliğinde okuyan, belki bütün öğrencilerin bir şekilde duyup öğrendiği pek çok teorem ve tezin tarihsel süreçte birbirini nasıl izlediğini ve basitçe neler olduklarını anlatmaktır.

Aslında tarihsel gelişimin neresinden başlanacağı bir tartışma konusudur, şayet bilgisayarların doğadaki malzemelerden yapıldığını kabul edersek. Örneğin bilgi depolamak için kullandığımız günümüz harddisk’lerinin üretilmesinden çok önce taş tabletler üzerine çivi yazılarıyla yazılan ve yine depolama amacıyla kullanılan malzemeler bulunmaktaydı.

Ancak modern bilgisayar bilimlerinin tarihine 1936 yılında, Alan Turing tarafından yazılan bir makale ile başlamak doğru olacaktır. Alan Turing, bu makalesinde, daha sonradan kendi ismiyle anılacak olan Evrensel Turing Makinesinin (Universal Turing Machine) temellerini tanımlamıştır. Bu tanıma göre, evrensel Turing makinesi gibi bir makine olabilir ve bu makine herhangi başka bir Turing makinesine döndürülebilir (veya diğer bir deyişle, herhangi başka bir Turing makinesinin yaptığı işi yapabilir)

Tarihsel süreçte, hemen ardından Church-Turing tezi olarak bilinen ve Alonzo Church tarafından ortaya atılan teze göre, herhangi bir algoritma, herhangi bir donanımda çalışabiliyorsa, bu donanıma karşılık gelen bir Turing makinesi olduğudur. Daha basit bir ifadeyle, Turing makineleri, herhangi bir donanımın yaptığı algoritmasal işlemleri yerine getirebilir.

Elbette bu gelişimin ardından böyle bir donanımın tasarımı gerekiyordu ve bu tasarım Von Neumann tarafından ortaya atıldı ve Von Neumann makinesi olarak anıldı. Von Neumann basitçe, Turing makinelerinin çalışmak için ihtiyaç duydukları, hafıza ve işlemciyi tasarlayıp bu tasarımı gerçek donanıma dönüştürmüştür.

1947 yılında, transistörün icadıyla birlikte, bu bilgisayar donanımındaki gelişim hızlandı ve hemen ardından, insanlık, daha iyi işlemciler üretmeye başladığı ve günümüze kadar hiç bitmeyen bir sürece girdi. Bu süreci 1965 yılında Gordon Moore, kendi ismiyle anılan Moore yasasında, maliyeti sabit kalmakla birlikte, bilgisayarların işlem gücünün, her iki yılda bir iki misline çıkacağını söylemiştir.

Yukarıdaki sürece paralel olarak Shannon tarafından 1948 yılında yayınlanan makalede (ki bu makale aslında kendisinin 1937 yılındaki yüksek lisans tezine ve Boole’un çıkarımlarına dayanmaktadır) bilgi teorisini (information theory) ortaya koymuştur. Bu teori, günümüzdeki veri sıkıştırma ve şifreleme çalışmalarının temelini oluşturur. Teori basitçe, olasılık teorisinin verini kodlanması (encoding of information) alanına uygulanması olarak düşünülebilir. Örneğin 256 farklı karakterden oluşan ASCII alfabesi için 8 bitin yeterli olduğunun bulunması ve entropi hesabı gibi.

Bir Cevap Yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir


sekiz + 2 =