Yapay Zekânın Altın Yılları (1956-1974)
İlk bilgisayarların oluşturdukları algı sadece birer matematiksel işlemler yapan aritmetik makinesi olarak değerlendirilirken, Turing’in yapmış olduğu bilgisayarların yapamayacağı şeyler listesi zamanla bilgisayarların yapabilmesi mümkün hale gelmeye başlamıştır. İşte bu yüzden bilgisayarın gelişmesiyle birlikte yapay zekânın bu gelişimden hızlı bir şekilde etkilenmesi tarihte yapay zekânın altın yılları olarak isimlendirilmiştir.
Bu altın yılların başlangıcında Newell ve Simon tarafından üretilmiş GPS (General Problem Solver) programı sayesin insanların akıl yürütme tekniklerini taklit edebilmeyi amaçlamışlardı. Örnek olarak geometrik problemleri çözme, teorem ispatlama hatta satranç oynama gibi. Newell ve Simon’un tasarladığı mantık makineleri üzerine teorik çalışmalar yaparak sonuc üreten GPS, problem bilgisini alarak problemin nasıl çözülebileceği stratejisini üreten ilk bilgisayar programı olma özelliği taşıyordu. GPS, şimdilik basit problemleri çözebiliyordu, ne yazık ki gerçek dünyaya ait büyük problemlere henüz çözüm üretemiyordu. GPS’in çalışma sürecine göre bir probleme çözüm üretebilmesi için tüm nesnelerin ve bunların işleyişlerinin tanımlanması gerekiyordu. Kullanıcı nesneleri ve nesneler için uygulanacak işlemleri tanımlar böylece GPS problemleri çözmek için neden-sonuç ilişkileri kurarak yol gösterici bir cevap üretirdi.[1]
Bunu izleyen süreçte bir diğer gelişme de Arthur Samuel tarafından 1952 yılında dama oynayan hatta oynadıkça kendini geliştirebilen bir bilgisayar programı yazmasıyla olmuştur. Böylece bilgisayarların sadece insanın yön vermesiyle hareket edebileceği fikri tarihe karışmıştır. Aynı bunun gibi Minsky’nin öğrencisi olan James Slagle’ın 1963 yılında üretmiş olduğu SAINT programı da kapalı form hesap entegrasyonu üzerine problemleri çözebiliyor ve Tom Evans’ın 1968 yılında geliştirdiği ANALOGY programı da IQ testlerinde kullanılan geometrik analoji üzerine olan problemlere cevap üretebiliyordu.[2]
Yapay Zekânın İlk Kişi (1974-1980)
Herbert Simon, 1965 yılında yapmış olduğu bir konuşmasında makinelerin yirmi yıl içinde bir insanın yapabileceği bütün işleri yapabileceğini söylemiştir.[3] Yapay zekânın yapabilecekleri üzerine düşünmeye başlayan insanlar, buna benzer pek çok kehanetlerde bulunmuştur. Tabii ki bu kehanetlerde bulunmalarının arkasında yatan asıl sebep yapay zekanın basit örnekler üzerinde gösterdiği başarısıdır. Yapay zekâ, basit örneklerde başarılı bir sonuç elde etmesine karşın, sıra karmaşık problemlere gelince tahmin etmedikleri zorluklarla karşılaşmışlardır. Bu zorlukları aşamadıkları için ise parasal yönden herhangi bir maddi destek bulamamışlardır. Tarihçede bahsetmiş olduğumuz Lighthill’in yapay zekâ hakkındaki insanları ümitsizliğe sürükleyen yıkıcı eleştirisi karşısında yapay zekâ çalışmaları 10 senelik bir duraksama sürecine girmiştir. Fakat bu duraksama sürecine rağmen sağduyu akılyürütmesi (commonsense reasoning) ve mantıkla programlama (logic programming) gibi alanlar başta olmak üzere pek çok yapay zekâ alanında yeni fikriler ortaya atılmaya devam etmiştir. Bu duraksama dönemi ise tarihte “Yapay Zeka Kışı” olarak adlandırılmıştır.
Bu yılların başlarında yapay zekâ programlarının yapabilecekleri henüz kısıtlıydı. İnsanları en etkileyen programlar bile belli problemlerin sadece çok küçük bir kısmını çözebiliyordu. Yani bu programlar bir nevi oyuncak gibiydi. Yapay zekâ 1980’li yıllara doğru aşamadıkları birçok problem ile karşılaştılar. Bu problemleri aşamamalarının sebepleri o dönemin getirdiği imkansızlıklar, teknolojik yetersizlik gibi etkenlerdi. Bu etkenlerden başlıcası sınırlı bilgisayar gücünün olmasıydı. Bir problemin üstesinden gelebilmek için yeterli kapasiteye sahip işlem hızı mevcut değildi. Örnek vermek gerekirse Ross Quillian’ın doğal dil işlemesi üzerine başarılı olarak nitelendirilen projeleri aslında sadece 20 kelime ile çalışabiliyordu.[4] 20 kelimeden daha fazlasını almaya yetecek bir hafıza kapasitesine sahip değildi.
Yapay Zekânın Yükselişi (1980-1987)
Yapay zekânın kışı olarak adlandırılan 1974-1980 arası dönem bitmiş ve 1980’li yılların başlangıcıyla yapay zekâ programlarının bir başka alanı olan uzman sistemler kavramı şirketler tarafından benimsenmeye başlamıştır. Bununla beraber Japon hükümeti de The Fifth Generation projesini başlatmıştır. Bu yıllarda yapay zekâ ilk yıllarındaki altın dönemini aratmayan başarısını yine yakalamaya başlamıştır.
Uzman sistemlerin de yükselişi ile işinde uzman kişilerin bilgilerinden türetilmiş mantıkları kuralları doğrultusunda, belirli uzmanlık alanındaki soruları cevaplayarak problemleri çözen programlara uzman sistemleri adı verilmiştir. Her soruyu çözecek genel amaçlı bir program yerine belli bir alanda uzmanlık seviyesi bilgi ile donatılmış bir program kullanma fikri yapay zekâ alanında yeniden bir canlanmaya yol açmıştır.
Örnek olarak yapay zekâ tarihçemizde de bahsetmiş olduğumuz Edward Feigenbaum, Jashua Lederberg, Bruce Buchanan ve Carl Djerassi tarafından Stanford Üniversitesi 1969 yılında geliştirilen DENDRAL programı ile kimya bilgisi dahilinde bilinmeyen molekülleri bulup organik kimaycılara yardımcı olmak için tasarlanmıştır. Kimya alanıyla sınırlı olan DENDRAL programı, kimyacıların karar verme süreçlerini ve problem çözme davranışlarını otomatikleştirdiği için tarihteki ilk uzman sistem olarak kabul edilir.[5]
Uzman sistemlerim hangi alanlara da uygulanabileceğinin cevabını bulmak üzere Feigenbaum önderliğinde Stanford Üniversitesi’nde Heuristic Programing isimli bir çalışma başlatılmıştır. Sonraki çalışmaların ana konusunu tıbbi teşhis oluşturmuştu. Feigenbaum, Edward Shortliffe ve Buchanan kan enfeksiyonlarını teşhis edebilmek üzere MYCIN adlı yapay zekâ programını oluşturdular. MYCIN, görevinde başarılı bir süreç geçiriyordu. DENDRAL programının MYCIN programı ile arasında temel olarak nitelendirebileceğimiz 2 farklılık vardı. Birincisi : Sonuç olarak herhangi bir çıktı verebileceği bir model bulunmuyordu. Kurallar uzmanlar yapılan röportaja dayanıyor, röportajdaki bilgiler ise uzmanların kitaplardan öğrendikleri ve diğer uzmanlardan edindikleri bilgilerden oluşuyordu. İkincisi ise : Kurallar tıp bilgisindeki belirsizlikleri de içermekteydi.[6] Bu yıllarda pek çok çalışma vuku bulmuştur. Bu yıllar içerisinde David Rumelhart ve Geoff Hinton tarafından “geri yayılım” (backpropagation) isimli yöntem bulunmuştur. Tarihçemizde detaylı bilgi bulabilirsiniz.
Yapay Zekânın İkinci Kişi (1987-1993)
Yapay zekâya olan ilgi 1980 sonlarına doğru ekonomik daralmanın oluşmasıyla gerilemeye başlamıştır. Yine de Hükûmet ve yatırımcıların yapay zekâ alanındaki olumsuz algısına ve anlamsız olduğu yönünde gelen ağır eleştirilere rağmen ilerleme yavaş da olsa sürmüştür. “Yapay zekâ kışı” deyimi birinci yapay zeka kışı başlangıcı olan 1974’de kesilen fonlar dolayısıyla ortaya çıkmış bir anlamdır. 1980’lerin sonları ve 1990’ların başlangıcında da yapay zekâ benzer bir finansal gerileme daha yaşamıştır.
IBM ve Apple tarafından üretilen kişisel bilgisayarlar güç ve hız bakımından Symbolics’in üretmiş olduğu ve diğer başka şirketlerin de üretmiş olduğu LISP makinelerini katlayarak geçmişlerdir. Artık fiyatı yüksek olan LISP makinelerini almanın bir anlamı kalmamıştır. Hatta bu yapay zekâ alanındaki donanım satışındaki daralma yüzünden yapay zekâ endüstrisi yarım milyar dolar zarar etmiştir.[7]
XCON gibi ilk uzman sistemlerin bakımının sağlanması çok pahalı olduğu artık anlaşılmıştır. Güncellenmesi zor olan bu sistemler artık eskide kalmıştı. Artık girdiler üzerine anlamsız hatalar üretmeye başlamış öğrenme yetisini yavaş yavaş kaybetmeye mahkum duruma düşmüşlerdi. Bunun sonucunda uzman sistemlerin sadece belirli bir bağlamda kullanışlı olduğu anlaşılmıştı.[8]
Strategic Computing Initiative ve DARPA’nın değişen yönetimi 1980’li yılların sonunda yapay zekâ fonlarını durdurmuştur. DARPA o tarihten itibaren artık hemen sonuç verecek olan projelere hedefini doğrultmuş ve artık o projeleri desteklemeye başlamıştır.[9] 1981 yılında başlatılan Fifht Generation Project isimli projede, 1991 yılına gelindiğinde çoğu hedefe ulaşılamamıştır.[10]
Referanslar
[1] Daniel Crevier: a.g.e., s. 52-53
[2] Stuart J. Russell, Peter Norvig: a.g.e., s. 19.
[3] Daniel Crevier: a.g.e., s. 109
[4] Daniel Crevier: a.g.e., s. 146
[5] Daniel Crevier: a.g.e., s. 148-150.
[6] Daniel Crevier: a.g.e., s. 151.
[7] Daniel Crevier: a.g.e., s. 209-210
[8] Daniel Crevier: a.g.e., s. 204.
[9] Pamela McCorduck: Machines Who Think (2nd ed.), AK Peters, Massachusetts, 2004, s. 430- 431
[10] Daniel Crevier: a.g.e., s. 212.