Ya İnsan Seviyesinde Yapay Zekâ Üretirsek

yapay zeka

Ona ne kadar bakarsanız bakın, gelecek kasvetli görünür. Dünya çevresel, ekonomik ve siyasi açıdan büyük stres altındadır. En çok hangisinden korkulacağını bilmek zor. Hatta kendi varlığımız bile artık garanti altında değil. Tehditler birçok olası yönden belirmekte: dev bir asteroit çarpması, küresel ısınma, yeni bir salgın hastalık, ya da haydut haline gelecek nanomakinelerin herşeyi kontrol altına alması.

Diğer bir tehdit yapay zekâdır. Stephen Hawking Aralık 2014’de BBC’ye şunları söyledi: “Tam yapay zekânın geliştirilmesi insan ırkının sonu anlamına gelebilir… Yapay zekâ kendi taklidini yapabilecek ve kendini her geçen gün arttıran bir oranda yeniden tasarlayabilecektir. Yavaş biyolojik evrimle sınırlı insanoğlu rekabet edemez hale gelebilir ve yerini onlara bırakabilir.” Geçen yıl, yapay zekâ ile ilgili şunları söyleyerek devam etti “Bu insanlığın başına gelebilecek en iyi ya da en kötü şeydir.”

Elon Musk, Bill Gates ve Steve Wozniak gibi önde gelen diğer insanlar yapay zekânın insanlığa verdiği risk konusunda benzer tahminlerde bulundu. Bununla birlikte, milyarlarca dolarlık yapay zekâ araştırmasına hâlâ devam ediliyor. Ve çarpıcı ilerlemeler kaydedilmektedir. Mart ayındaki önemli bir karşılaşmada Go ustası Lee Sedol, AlphaGo bilgisayarına 4-1 yenildi. Karada taksi kullanmaktan havada uçaklar arasında yapılan köpek dalaşını kazanmaya kadar diğer birçok alanda, bilgisayarlar görevi insanlardan devralmaya başlıyor.

Hawking’in korkuları, teknolojik tekillik (singularity)* fikrinin etrafında döner. Bu, makine zekâsının sıçrayış yaptığı noktadır ve daha zeki yeni türler Dünya’da yaşar hale gelirler. Teknolojik tekillik fikrinin izini geriye doğru, programlamanın kurucularından John von Neumann ve bilimkurgu yazarı Vernor Vinge gibi farklı düşünürlere kadar sürebiliriz. Fikir, kabaca yapay zekâ araştırmasıyla aynı yaşta. 1958’de, matematikçi Stanisław Ulam yakın zamanda ölen von Neumann’a bir övgü yazdı, şunları hatırlatıyordu: “Bu, teknolojinin gittikçe hızlanan gelişimi ve insan yaşam biçimindeki değişiklikleri üzerine yoğunlaşan bir harekettir ve bazı önemli tekilliklere yaklaşım göstermektedir… insanlık meseleleri bunun ötesinde devam edemez.” (Amerikan Matematik Cemiyeti Bülteni, v 64, p1)

(*Singularity veya teknolojik tekillik, gelecekte yapay zekânın insan zekâsının ötesine geçerek, medeniyeti ve insan doğasını radikal bir biçimde değiştireceğine inanılan hipotezsel nokta. Böyle bir zekâ, insanlığın tasavvur edebileceğinden daha üstün kabiliyetli olacağından, insanlığın geleceğini öngörülemez bir hale getireceği düşünülmektedir.)

Teknolojik tekillik fikri daha yakın zamanda, 2045’te gerçekleşeceğini öngören Ray Kurzweil ve sonuçlarıyla ilgili çok satan bir kitap yazan Nick Bostrom tarafından yaygınlaştırıldı. Bizi zekâ konusunda geride bırakan makinelerden korkmak için çeşitli nedenler var. İnsanlar gezegendeki baskın tür haline geldi, çünkü bizler oldukça akıllıyız. Birçok hayvan bizden daha büyük, daha hızlı ve daha güçlü. Fakat biz aklımızı araçlar, tarım ve inanılmaz teknolojiler icat etmek için kullandık, örneğin buhar motorları, elektrik motorları ve akıllı telefonlar gibi. Bunlar hayatlarımızı değiştirdi ve gezegene egemen olmamızı sağladı.

Bu nedenle, düşünebilen ve hatta bizden daha iyi düşünebilen makinelerin bizi gasp etmekle tehdit etmesi şaşırtıcı değildir. Tıpkı fillerin, yunusların ve pandaların yaşamının devamı bizim iyi niyetimize bağlı olduğu gibi, bizim kaderimiz de bu üstün düşünme yetisine sahip makinelerinin kararlarına bağlı kalabilir.

Makineler tekrarlı olarak zekâlarını geliştirdiklerinde ve böylece insan zekâsını hızla aştıklarında, zekâ patlaması fikri özellikle vahşi bir fikir olmaktan çıkar. Bilgi işlem alanı birçok benzer üstel eğilimden önemli ölçüde yararlanmıştır. Moore yasası, bir entegre devre üzerindeki transistör sayısının her iki yılda ikiye katlanacağını ve on yıllar boyunca bu kadar çok işlem gerçekleştirdiğini öngörüyor. Dolayısıyla, yapay zekânın üstel büyüme yaşayacağını varsaymak mantıksız değildir.

Yapay zekâ üzerine çalışan bir çok meslektaşım gibi, benim tahminime göre yapay zekânın süperinsan zekâsına erişimine 30-40 yıl kadar zaman var. Fakat teknolojik tekilliği imkânsız kılan birkaç güçlü neden var.

“HIZLI DÜŞÜNEN KÖPEK” TARTIŞMASI

Silikon, beyin ağımıza kıyasla önemli bir hız avantajına sahiptir. Ve bu avantaj Moore yasalarına göre her iki yılda iki katına çıkar. Ancak hız tek başına arttırılmış zekâ sağlamaz. Köpeğimin daha hızlı düşünmesini sağlasam bile, o yine de satranç oynayamaz. Gerekli mental yapılara, dil bilgisine ve soyut kavramlara  sahip değildir. Steven Pinker bu tartışmayı uygun bir şekilde ortaya koydu: “Düpedüz proses gücü, tüm sorunlarınızı sihirli bir şekilde çözen perili bir toz değildir.” Zekâ, bir problem hakkında başkasından daha hızlı veya daha uzun düşünmekten çok daha fazlasıdır. Moore yasaları, elbette yapay zekâya yardımcı oldu. Şimdi daha hızlı öğreniyoruz ve daha büyük data setleri ortaya çıkarttık. Daha hızlı bilgisayarlar yapay zekâ kurmamıza kesinlikle yardımcı olacak. Fakat en azından insanlar için zekâ, yılların deneyimi ve eğitimi de dahil olmak üzere başka birçok şey üzerine kuruludur. Bunu, silikonla çalışma hızını arttırarak veya daha fazla bellek ekleyerek kolaylaştırabileceğimiz tam net değildir.

İNSAN MERKEZLİ – ANTROPOSENTRİK TARTIŞMA

Tekillik, insan zekâsının, aşılması gereken özel bir nokta olduğunu varsaydı, bir çeşit devrilme noktası. Bostrom şöyle yazıyor: “İnsan seviyesindeki yapay zekâ, insan seviyesinden daha üstün yapay zekâya daha hızlı öncülük eder… Makinelerin ve insanların kabaca eşleştirildiği süreçteki zaman aralığı muhtemelen kısa olacaktır. Kısa süre sonra insanlar entellektüel olarak yapay zihinlerle rekabet edemeyeceklerdir.” Bilim tarihinden öğrenmiş olmamız gereken bir şey varsa o da, bizim inanmak istediğimiz kadar özel olmadığımızdır. Kopernik bize Evren’in Dünya etrafında dönmediğini öğretti. Darwin bize diğer maymunlardan çok farklı olmadığımızı öğretti. Watson, Crick ve Franklin aynı DNA kodunun bize ve en basit amipe güç verdiğini ortaya koydu. İnsan zekâsının bir devrilme noktası olduğuna ve bir kez aşıldığında daha hızlı yapay zekâya olanak sağlayacağını varsayacak bir sebep yoktur.

Tabiki insan zekâsı önemli bir noktadır çünkü, bildiğimiz kadarıyla, entelektüel yeteneklerimizi zenginleştiren eserler inşa edebilme konusunda benzersizdir. Gezegende, yeni zekâ tasarlamak için yeterli zekâya sahip tek yaratıklar biziz ve bu yeni zekâ, yavaş insan üremesi ve evrimi ile sınırlı kalmayacaktır. Fakat bu bizi devrilme noktasına, özyinelemeli kendini geliştirme noktasına getirmiyor. İnsan zekâsının, teknolojik tekilliğe başlangıç noktası olacak şekilde yeterince akıllı bir yapay zekâ tasarlamaya yeterli olduğunu varsaymamızı gerektirecek hiçbir sebebimiz yok. Süper insan yapay zekâsını tasarlamak için yeterli zekâya sahip olsak bile, sonuç, teknolojik tekillik oluşturmak için yeterli olmayabilir. Zekâyı geliştirmek sadece zeki olmaktan oldukça zordur.

 “AZALAN VERİMLER” TARTIŞMASI

Teknolojik tekillik fikri, zekânın gelişiminin sabit göreceli bir çarpan aracılığıyla olacağını varsayar, her yeni nesil sonuncudan daha iyi bir kesir alır. Bununla birlikte, birçok yapay zekâ sisteminin performansı azalan verime sahiptir. Genellikle başlangıç kolay lokmadır, fakat ilerleme kaydetmeye çalışırken zorluklarla karşılaşırız. Bu, ilk yapay zekâ araştırmacılarının birçoğunun yaptığı aşırı iyimser iddiaları açıklamaya yardımcı oluyor.  Bir yapay zekâ sistemi kendisini sonsuz sayıda geliştirebilir ancak zekâsının genel olarak ne ölçüde değiştiği sınırlanabilir. Örneğin, her nesil yalnızca son değişikliğin yarısı kadar gelişirse, sistem asla toplam zekâsını iki katına çıkaramaz.

“ZEKÂNIN LİMİTLERİ” TARTIŞMASI

Evrende birçok temel sınır vardır. Bazıları fizikseldir: Işık hızından daha fazla hızlanamazsınız, tam bir kesinlik ile hem konumu hem de momentumu bilemezsiniz veya bir radyoaktif atomun ne zaman bozunacağını bilemezsiniz. Yaptığımız herhangi bir düşünen makine, bu fiziksel yasalarla sınırlanacaktır. Elbette, eğer bu makine elektronik ya da hatta kuantum nitelikte ise, bu sınırlar insan beyninin biyolojik ve kimyasal sınırlarının ötesine geçecektir. Bununla birlikte, yapay zekâ bazı temel sınırlara da ulaşabilir. Bunlardan bazıları doğanın kendine özgü belirsizliğine bağlı olabilir. Bir problem hakkında ne kadar çok düşünürsek düşünelim, karar verme kalitemizde bir sınırlama olabilir. Süper-insan zekâsı bile bir sonraki EuroMillions piyangonun sonucunu tahmin etmede sizden daha iyi olamaz.

“HESAPLAMA KARMAŞIKLIĞI” TARTIŞMASI

Son olarak, bilgisayar bilimi, farklı problemleri çözmenin ne kadar zor olduğuna dair iyi geliştirilmiş bir teoriye zaten sahiptir. Üstel ilerlemenin bile, pratik olarak çözmemize yardımcı olamadığı birçok hesaplama problemi vardır. Bir bilgisayar, bazı kodları analiz edemez ve kesin olarak durdurup durdurmayacağını bilemez – “durma sorunu”. Hem bilgisayarın hem de yapay zekânın babası Alan Turing, böyle bir sorunun hesaplanabilir olmadığını ispatladı, bilgisayarın, kodunu analiz etmesini ne kadar hızlı veya akıllı yaptığımız farketmez. Kuantum bilgisayarlar gibi diğer cihaz türlerine geçmek yardımcı olacaktır. Fakat bunlar klasik bilgisayarlara kıyasla sadece üstel ilerleme sağlayacaktır, ki bu da Turing’in durma problemi gibi sorunları çözmede yeterli olmayacaktır. Bu tür hesaplama engellerini aşabilecek kuramsal hiper bilgisayarlar vardır. Bununla birlikte, bu tür cihazların mevcut olup olmayacağı tartışmalı bir konudur.

GELECEK

Bu yüzden hiçbir zaman teknolojik bir tekilliğe şahitlik edemeyebileceğimize dair bir çok neden var. Fakat zekâ patlaması olmasa bile, süper insan zekâsı sergileyen makineler ortaya çıkarabiliriz. Bunların çoğunu kendimize acı vererek programlamak zorunda kalabiliriz. Eğer durum buysa, yapay zekânın ekonomimiz ve toplumumuz üzerindeki etkisi Hawking’in korktuğundan daha hızlı olabilir. Bununla birlikte, bu etkiyi planlamaya başlamalıyız. Teknolojik bir tekillik olmasa bile, yapay zekânın iş yapmanın doğası üzerinde büyük bir etkisi vardır. Taksi ve kamyon şoförlüğü gibi birçok meslek, önümüzdeki on ya da yirmi yılda ortadan kaybolacak gibi görünüyor. Bu, bugün toplumumuzda gördüğümüz eşitsizlikleri daha da arttıracaktır. Ve hatta oldukça sınırlı olan yapay zekânın, savaşın doğası üzerinde büyük bir etkiye sahip olması muhtemeldir. Robotlar, savaşı sanayileştirecek, savaşın önündeki engelleri azaltacak ve mevcut dünya düzeninin istikrarını bozacaktır. Teröristler ve haydut devletler tarafından bize karşı kullanılacaklardır. Terminatördeki gibi bir son bulmak istemiyorsak, robotları en kısa sürede savaş alanlarında yasaklamalıyız. Bunu doğru anlayabilirsek, yapay zekâ, hepimizin daha sağlıklı, daha zengin ve daha mutlu olmasına yardım edecektir. Eğer bunu yanlış anlarsak, yapay zekâ o ana dek yaptığımız en büyük hatalardan birisi olacaktır.

Çeviren : Gültekin METİN
https://www.newscientist.com/article/mg23231000-600-the-world-in-2076-machines-outsmart-us-but-were-still-on-top/

Check Also

Yaşamın 3 Altın Gerçeği – Ahmed Hulûsi

Yaşamın 3 ALTIN GERÇEĞİNİ göz önüne alarak, günlerinizi #huzur içinde de geçirebilirsiniz; ya da hiç ...