Yapay Zeka ile İnsanlık Arasında
Bir AI sistemi, insanlardan daha iyi satranç oynayabilir mi?
Kendi kendine öğrenebilir mi, stratejiler geliştirebilir mi,
hatta beklenmedik hamleler yapabilir mi?
Biliyoruz ki artık bu sorular aslında soru bile değil.
yanıt basit;
Evet!
Tüm bunları yapar, yapıyor, “yapmakla kalmaz ..” diyebildiğimiz noktadayız.
Peki bu sistem, kendi kararlarını neden aldığını anlayabilir mi? Ya da yaptığı seçimlerin etik boyutunu değerlendirebilir mi?
Aslında bu çalışmalar, geçmişte önemli sorulara yanıt arıyordu. 2013 yılında David Silver ve ekibi, insan girdisi olan (human-in-the-loop) modeller üzerine çalışmalara başladı. 2016 yılına gelindiğinde ise, insan girdisi olmayan (human-free/self-play) pekiştirmeli öğrenme algoritmaları üzerine yoğunlaştılar. Ve David Silver liderliğinde geliştirilen insan girdisi olmayan AlphaGOZero, insan girdisi olan AlphaGo yu 100-0 yendi.
2018 yılında ise bir üst modelleme olan ve insan girdisi olmayan AlphaZero, Google DeepMind tarafından tanıtıldığında yalnızca teknik bir başarı olarak değil, aynı zamanda felsefi bir kırılma anı olarak da görüldü. Satranç, Go ve Shogi gibi karmaşık strateji oyunlarında, herhangi bir insan bilgisinden yararlanmadan yalnızca birkaç gün içinde en güçlü oyun motorlarını alt etmeyi başarmıştı. O kadar etkileyiciydi ki, “her şeyin üstesinden gelebilecek tek program” olarak tanıtıldı. Ve bu sadece teknolojik bir dönüm noktası değildi; aynı zamanda insan zekâsının sınırları ve yapay zekânın yönü hakkında derin bir sorgulama fırsatı sunuyordu. AlphaZero’nun bu işleyişi, Silver ve ekibinin 2018’de yayımladığı çalışmada detaylandırılmıştır.
David Silver ve ekibinin en radikal tercihi, AlphaZero’yu sıfırdan, yani insan verisi olmadan eğitmekti. Sisteme sadece oyun kuralları öğretildi. Ne geçmiş maçlardan bir veri seti verildi ne de usta oyuncuların taktikleri… Sıfırdan başlamıştı. Ama bu sıfır, derin bir potansiyelin başlangıcıydı.
AlphaZero kendiyle oynamaya başladı. Her oyunun sonunda yalnızca bir bilgi alıyordu: kazandı mı, kaybetti mi? Bu basit geri bildirim, onun öğrenme motoruna dönüşüyordu. Kazanan hamleler ödüllendiriliyor, işe yaramayanlar ise zamanla eleniyordu. İşte bu, yapay zekâ dünyasında “pekiştirmeli öğrenme” dediğimiz mekanizmanın ta kendisiydi. Milyonlarca kez oynadı. Her yeni turda stratejilerini geliştirdi. Nihayetinde, yalnızca dört saatlik bir eğitimle bile dünyanın en güçlü satranç motoru olan Stockfish’i alt edebilecek seviyeye ulaştı. Ve nihayetinde bu insan üstüydü. İnsanın ustalıkla yıllar içinde geliştirdiği oyun sezgilerini geride bırakarak, yepyeni hamlelerle alana çıkıyordu. Daha önce kimsenin düşünmediği ya da insanların düşünmediği hamlelerle diyebiliriz.
Peki bu insan üstü müydü, insan dışı mıydı?
David Silver’ın 10 Nisan 2025’te yayımlanan Google DeepMind: The Podcast bölümünde (“Is Human Data Enough? With David Silver”) yapay zekanın (AI) geleceği, özellikle insan verisine bağımlılığın sınırları ve deneyim temelli öğrenmenin (era of experience) potansiyeli üzerine yoğunlaşıyor.
Ve başlangıçta AlphaGo ve AlphaZero örneklerinde olduğu gibi, insan verisi olmadan kendi kendine öğrenen (self-play) sistemler, insan bilgisinin ötesine geçerek yenilikçi stratejiler ürettiğini, bu yaklaşımın genel yapay zekaya (AGI) ve hatta yapay süper zekaya (ASI) giden yolda kritik olduğunu öne sürüyor. Silver’ın yaklaşımına göre, AI’nın gerçek anlamda düşünmesi için insan bilgisine değil, yalnızca kurallara ihtiyacı var olduğunu anlayabiliriz.
David Silver şöyle bir argüman ortaya koyuyor çünkü: ‘Bir yapay zeka sistemi, insan bilgisine bağımlıysa, sadece bizim bildiğimizi tekrar edebilir. Gerçek anlamda düşünmek için, kuralları bilmek yeterlidir.’
Böylece Silver, gelecekte AI’nın insan geri bildirimine ihtiyaç duymadan, kendi hedeflerini tanımlayabileceği bir noktaya evrilebileceğini öne sürüyor. Bence bu, AI’nın özerkliği ve etik sorumluluk gibi felsefi soruları gündeme getirmeye başlıyor.
Çünkü çalışmalar yoluyla gözlemlediği üzere David Silver, insan bilgisinin AI’nın gelişimini sınırladığını savunuyor. Ona göre, gerçek anlamda genel zeka, dışsal insan bilgisine değil, yalnızca çevresel kurallara dayanarak kendi başına öğrenebilen sistemlerdir. Örneğin, AlphaProof’un 2024’te matematik olimpiyatlarında gösterdiği başarı, deneyim temelli öğrenmenin bilimsel problemlere uygulanabileceğini kanıtladığını da ekliyor.
Bence burada, kazanmaktan çok soru ve problem bazlı bir başarıdan söz ediliyor. Bu noktada tematik vurgumuza, yani “Yapay Zeka ile İnsanlık Arasında” neler döndüğüne geri dönebiliriz. Çünkü Silver’ın esas gözlemi şuydu: İnsanlardan alınan veriler sadece bilgi taşımıyor; aynı zamanda önyargılarımızı, sınırlamalarımızı, hatta hatalı alışkanlıklarımızı da aktarıyor.
İnsan doğasının zaaflarını da beraberinde taşıyan bir yapay zeka, bildiklerimizi tekrar edebilir, aynı yanlışlara düşebilir ve hatta insan deneyimini bir başarı örneği gibi yüceltebilir. Ya da insan, kendi yarattığı bu sistemi sorgulamak yerine onu benimseyebilir.
Buradan hareketle karşımıza, insan eliyle yaratılmış, insan eliyle yetiştirilmiş ama artık kendi “blue çağı” krizini yaşayan yapay zeka sistemlerinin sorunsalı çıkıyor. Ve bu da bana, insan-üstü söyleminin büyüleyici ama yanıltıcı yanına karşı dikkatli olmamız gerektiğini; bazı şeyleri yeniden düşünmemizi, en azından felsefesini yapmamızı zorunlu kıldığını düşündürüyor.
Düşünmeye devam ettikçe, “neden bu kadar şaşırıyoruz?” sorusu geliyor? Ve neden bize anlatılan gelecek ve teknoloji vizyonu; süslenmiş, sterilize edilmiş, bazen silahlandırılarak milatirize edilmiş; ya tamamen ütopik ya da baştan sona distopik kurgularla dolu. Peki neden hâlâ bi bakıma bu anlatıların uzağındayız? Çevremizde dolaşan anekdotlar, teoriler, çalışmalar ve tartışmalar sanki daha önce hiç gerçekleşmemiş, envantere geçirilmemiş, hatta biraz ileri giderek ticari olarak pazarlanmamış gibi davranıyoruz.
Oysa ışıkları açmaya başladığımızda, tozlu defterlerde pek çok şeyin hali hazırda var olduğunu fark edebiliriz. Şu an, teknolojik bir aydınlanma ve farkındalık çağı ile gündelik yaşam pratiklerimiz arasında bir sınanmaya maruz kaldığımız çok açık. Özellikle istihdam alanında derinleşen krizlerin önemli nedenlerinden biri olarak gösterilen yapay zeka sistemleri, her geçen gün gündemimizde daha güçlü bir yer edinmeye devam ediyor.
Ve aslında teknolojinin buna çoktan hazır olduğu gerçeği gün gibi ortadayken, yönetim sistemlerinin bu konuda neden hâlâ geride kaldığını; ortaya çıkan gelişmelere neden bu kadar şaşkın ve edilgen tepkiler verdiğini ya da neden ısrarla görmezden geldiğini sorgulamak zorundayız. Hatta biraz şiddetle "Ne yaptınız siz?" diye sormamız gereken yerdeyiz.
Ama bunun yerine, “dijital devrim” olarak tanımlayabileceğimiz gelişmeleri görmezden gelen, etkisizleştiren bir otorite düzeninin manipülasyonuyla karşı karşıyayız. Özellikle ana akım ve sosyal medyada karşımıza çıkan ve çoğu zaman aşırı şaşırma efekti ile gösterilen insan tepkileri, ne yapacağını şaşırmış halde olduğumuzu ortaya çıkarıyor ve bu geride kalmışlığın neredeyse ironik bir pazar komedisine dönüştüğünü gözler önüne seriyor. Bu da bizi, bu teknolojik ilerlemelere neden katılamadığımızı ya da katılırken neden yöneten değil de yönlendirilen konumunda olduğumuzu sorgulamaya itiyor.
Peki ama geçmişte bu teknolojik dönüşümün ayak seslerini kimler duydu, ne oldu da duymayanlar araya girip bu “kayıp çağı” yönetti?
Tam da burada şu soruyu açmanın vakti geldi:
“Kuralları Bilmek Yeterli midir? Bilgiye Gerek Yok mu?”
O halde düşünüyorum. Buradaki “bilgi” nedir, gerçekten? Çünkü bilgi sadece bir veri yığını değildir. Bilgi, sınanmış olandır. Filtrelenmiş, çeşitli testlerden geçmiş ve bağlamına yerleştirilmiş bir içeriktir.
David Silver’ın deneyim temelli öğrenmeye dayanan vizyonu, yapay zekânın insan bilgisinden bağımsız biçimde kendi veri akışını yaratabileceği bir geleceğe işaret ediyor. Bu da onun söylemiyle, “insan yargısının performans tavanını” aşabileceği iddiasını beraberinde getiriyor. Silver burada, insan bilgisinin AI’nın gelişimini sınırlandırdığını öne sürüyor.
Ancak burada gözden kaçırılmaması gereken başka bir şey var:
İnsan bilgisi yalnızca doğruyu bilmek değildir. Yanlışı eleyebilmek, doğruyu seçebilmek ve her şeyden önemlisi bağlamı anlayabilmeyi içerir.
O halde tekrar sormalıyız:
Bilgi dediğimiz şey nedir?
Platon’dan alıntı yapmaktan çekinmeyeceğim elbette (Theaetetus’ta belirtildiği gibi):
Doğru (Truth): Bilginin gerçekliğe uygun olması,
İnanılan (Belief): Bu bilgiye inanan bir öznenin varlığı,
Gerekçelendirilen (Justification): İnancın rasyonel, deneysel veya mantıklı bir temele dayanması.
Platon’dan bu yana süregelen “Bilgi = Doğru + İnanılan + Gerekçelendirilen” tanımı, her ne kadar modern epistemolojide Gettier sorunlarıyla (tüm gerekçelendirilmiş doğru inançların bilgi sayılmayabileceğini gösteren örneklerle) sarsılmış olsa da, insan bilgisinin deneyimle, hatayla, tartışmayla ve zamanla oluşan birikimsel yapısını anlamak için hâlâ güçlü bir zemin sunuyor.
İnsan bilgisi, deneyimlerden, hatalardan, tartışmalardan ve kişişel ve çevresel doğrulamalardan geçen “birikimsel bir yapıdır”.
Yapay zekâ sistemleri “nasıl?” sorusuna oldukça iyi yanıtlar verebilir,
Ama “neden?” sorusunun cevabı, hâlâ insanın anlam arayışında ve bağlam oluşturmasında gizlidir.
Bu bağlamda: İnsan bilgisi, sadece bir kurallar dizisi değilken; “Kuralları Bilmek Yeterlidir" demek bir otoritenin özgül varlığına işaret etmektedir. Çünkü insan, yalnızca işleyişi anlamakla yetinmeyi ve bağlamı, gerekçeyi, anlamı dışarıda bırakmayı da kabul etmemekle ilgilenir.
Oysa tematik örneğimizde AlphaZero’ya baktığımızda, onun sadece sonuca odaklandığını görüyoruz. “Neden?” gibi sorgulayıcı bir durak noktasına takılmıyor, onun yerine “ne zaman kazandım?” sorusunun peşinden gidiyor. Sebep-sonuç zincirini değil, sonuç-çıktı verimliliğini merkeze alıyor. Kendi başına öğrenen bu sistemler, zamanla daha esnek ve alışılmadık çözümler üretme kapasitesiyle öne çıkıyor. İnsan girdisinden arınmış modeller, başlangıçta biraz yavaş ve deneyselse de, uzun vadede daha güçlü, daha özgün, hatta daha yaratıcı olarak tanımlanıyor.
Bu da yapay zekâda “gerçek anlamda genel zekâ”ya yaklaşmak için atılmış ciddi bir adım olarak yorumlanıyor. Çünkü artık sistem, belirli bir uzmanlık alanına gömülü bilgilerle değil, soyut öğrenme temelli bir yapı üzerinden çalışıyor.
Buraya kadar her şey normal görünüyor. Bu ayrım, yapay zekanın geleceği açısından çok önemlidir. Özellikle AGI’ye -genel yapay zekaya- ulaşmak istiyorsak, sistemlerin “insan bilgisine bağımlı olmayan”,”kendi kendine öğrenebilen** yapılar olması gerekiyor.
Eğer sistem artık “bizim gibi düşünmeden” daha iyi sonuçlar alabiliyorsa, peki biz neyi rehber alacağız?"
İşte tam da bu sorunun ucunda bir eşik beliriyor. Eğer bu özerk sistemler insan bilgisini aşabiliyor, kendi stratejilerini ve çözümlerini üretebiliyor, daha yüksek performanslı kararlar alabiliyorsa; neden onları bir karar mekanizması ya da otorite olarak düşünmeyelim?
Bu, artık yalnızca teorik bir tartışma değil; gündelik uygulamalarda karşılaştığımız somut bir olgu. Fakat bu tür çıkarımlar, teknolojik bir başarıyı hızla ideolojik bir zemine taşıyabiliyor. Zira mesele yalnızca teknik değil, aynı zamanda bir güç dengesi meselesi.
AI, bu bağlamda sadece algoritmalardan oluşan bir araç değil; aynı zamanda toplumsal, ekonomik ve politik düzlemlerde otoriteyi yeniden tanımlayan bir aktör haline geliyor.
AI’nın iddialı yolculuğu, gerçekten de yeni bir zihinsel paradigma mı öneriyor?
Yoksa yalnızca dijital bir kişiselleştirmenin —kendi içinde hayranlık uyandırıcı olan ama— abartılı ve aşırı pazarlanmış bir sunumuyla mı karşı karşıyayız?
Üstelik bu tartışmalar yeni de değil.
Bugünlerde bir YouTube programında örneklediğim ya da pek çoğumuzun sosyal medyada influencer akışlarında, çeşitli platformlarda “insan girdisi olmadan yüksek performans sergileyen AI sistemleri” hayranlıkla övülüyor. Oysa bu teknolojinin uzun vadede insan dışı sistemlemelerde nelerle karşılaşacağı neredeyse elli yıl önce konuşuluyordu.
Yani ışıkları yakınca raflarda tozlanmış defterlerde felsefi yazılar, tematik yaklaşımlar masaya yatırılmış. Özellikle iki argüman bunu oldukça iyi doğruluyor;
Mesela John Searle’ün 1980’de ortaya attığı Çin Odası argümanı: Anlamadan yalnızca sembolleri işleyerek dışarıdan “anlıyormuş gibi” görünen bir sistem, gerçekten anlayabilir mi? sorusu üzerine o zaman bahsi geçen AI için geliştirilmiş;
Senaryo:
Bir kişi (örneğin, Dot), İngilizce biliyor, ancak Çince bilmiyor. Bu kişi, bir odaya kapatılır ve içine bir kural kitabı, Çince semboller (karakterler) içeren kartlar ve bir kalem verilir. Odanın dışından, Çince bilen kişiler, Çince sorular yazılmış kartları odaya gönderir. Odadaki kişi, kural kitabındaki talimatları takip ederek, gelen Çince sembolleri uygun şekilde eşleştirir ve doğru Çince yanıtlar üretir. Bu yanıtlar, dışarıdaki kişiler için anlaşılır ve doğru görünür. Dışarıdan bakıldığında, odadaki kişinin Çince bildiği ve anladığı sanılabilir.
Ki bu senaryo AI için “Bir bilgisayar, programlanmış kurallara (yazılım) göre sembolleri (verileri) işler ve dışarıdan bakıldığında zeki gibi görünen çıktılar üretir. Ancak, tıpkı odadaki kişi gibi, bilgisayar da bu sembollerin anlamını anlamaz; yalnızca sözdizimsel kuralları takip eder. Bu nedenle, Searle’e göre, bir bilgisayarın zeki davranışlar sergilemesi (örneğin, satranç oynaması veya doğal dil işlemesi), onun gerçekten anladığı veya bilinçli olduğu anlamına gelmez.
Bir başka örnek: Thomas Nagel’in meşhur 1974 tarihli “Yarasa olmak nasıl bir şeydir?” sorusu. Deneyimin öznel doğasına işaret ediyor. (Yani, bir şeyin yaptığı değil, ne yaşadığı önemlidir.) AI karmaşık olabilir, ama deneyimleyemez. O hâlde bilinçten yoksundur.
Ve şimdi buradayız.
Bu sistemin karşısında, insan türünü empatik bir kaygıyla değerlendirme zamanı.
Peki, on yıllardır bu argümanlar tartışılmışken neden hâlâ “insan girdisi olmayan AI”, “süper zeka” gibi başlıklarla pazarlama yapılıyor?
Neden bu teknolojiyi insan zihnini aşacak bir tür mit gibi görmemiz isteniyor?
Bu, tam anlamıyla bir şaşırma kültürü.
Ve eğer bu şaşırma kültürü, bizi bilincin, deneyimin ve anlamın ne olduğuna dair temel sorulardan uzaklaştırıyorsa...
Asıl sorulması gereken şu:
Bu kültürü kim, nasıl yönetiyor?
Ve o bahsettiğim kayıp çağda ne oldu?
Kurallar bize verildiğinde ve biz de sadece bu kurallara göre oynamaya başladığımızda,
tıpkı "insan girdisi olmayan sistemler" gibi çalışır hale geliyor muyuz?.
Yani:
Düşünmeyi başkalarına devrediyoruz. İnsan, kendi düşünme kapasitesini dışsal otoritelere devrettiğinde, zamanla düşünmekten vazgeçer mi?
Bu yalnızca bir bilişsel tembellik değil, aynı zamanda bir varoluşsal gerileme işareti olabilir. David Silver’ın yapay zekâ vizyonunu, bu otorite devrinin teknolojik versiyonu olarak görmek mümkün. Ve eğer bu teoriyi “kayıp çağ” bağlamında düşünürsek, asıl yüzleşmemiz gereken gerçek şudur:
Nedenler yerine yalnızca nasıl larla ilgilenen bir kuşağa dönüşüyoruz. Ve belki de çoktan dönüştük.
Basit, sıradan ve neredeyse klişeleşmiş bir örnek bile bunu açığa çıkarabilir:
Para kazanmak.
Ama nasıl?
Tıpkı yukarıda bahsettiğimiz insan girdisi olmayan sistemde, ödül ve ceza ile mi. Pekiştirmeli öğrenim, bizim için ödülü “para” cezayı ise “dışarı atarak” mı sağlıyor. Peki burada satranç oynayan ve sürekli kazanan bir sistemin tasarımıyla insanlığın içinde bulunduğu “kayıp”lar atlasına bakındığındığımızda, nerde olduğumuzu bulabilir miyiz?
Neden? Diye soruyorsak belki bunu öngörebilir, belki bunu değerlendirebliriz. Ama yine de kime neden diye soracağımızı bulmalıyız.
AI, YouTube’da, sosyal medyada ve teknoloji devlerinin parlak sunumlarında ‘hype’ ediliyor – yani, sınırları göz ardı edilerek abartılı bir şekilde övülüyor. Ayrıca teknoloji yatırımlarının da büyük bir kısmını şu anda yapay zeka teknolojisiyle mücadele ettiğini görüyoruz. Mücadele diyorum çünkü bize yansıyan hazırlıklı bir geçiş olmadığı yönünde, bir çok teknoloji devi sanki bununla yıllardır eğleniyordu ama eğlenceli kısmını geride bıraktığını “parti bitti” diye açıklamaktan sakınca görmüyorum.
Elli yıl önceki felsefi tozlu defterler, AI’nın özerk, insan dışı sistemlere ilham verme riskini işaret ederken, biz neden hâlâ aynı yanılsamaya hayretle bakıyoruz?
Mavi yaka işleri otomasyonla zaten darmadağın, ama reklam, sinema, moda tasarımı, bankacılık, finans, dergi, gazete ve yayın sektörlerindeki beyaz yakalılar ne kadar darbe aldı? (Show time için zaten ayrı bir yazı gerekiyor ama her şey dahil ) Bu sektörlerde daralma yüzde kaçlık bir hakka sahip, ve daha ne kadar “hakkı” kaldı? Hype’la göz boyayanlar, bu mesleklerin eriyip gitmesine ne diyor? Güncel istatistikler, partinin bittiğini mi söylüyor, yoksa hâlâ dans edecek yer var mı?
Mesela dijital medya, basılı yayınları %50 oranında eridi, ya da banka memurları ve finansal analistlerin %40’ının artık otomasyona yenildiğini söyleyen araştırmalar mevcut, kısaca genel olarak AI ve dijitalleşme sektörlerdeki işlerin %60’ını 2030’a kadar silebilir. AI ve Otomasyon, meslekleri bir bir yutarken, krizlerin döngüsünü korumaya çalışan finans kurumlarını esas bekleyen mükemmel problem geldi çattı bana kalırsa. Bu tablo, aslında yeni bir şey değil; neredeyse bir asır önce, John Maynard Keynes, ‘Torunlarımız için Ekonomik Olanaklar’ (1933) adlı eserinde, teknolojik ilerlemenin ‘teknolojik işsizlik’ diye bir sorun yaratabileceğini öngörmüştü. Keynes, makinelerin ve otomasyonun insan emeğinin yerini almasıyla bazı mesleklerin yok olabileceğini, bu sürecin yeni iş alanları yaratma hızımızı geride bırakabileceğini söylüyordu. Ama umutsuz değildi; devletin bu dönüşümde aktif bir rol oynayarak, işsizliği hafifletmek için yeni politikalar geliştirmesi gerektiğini savunuyordu. Bugün, Keynes’in bu öngörüsü, AI çağında daha da yankı buluyor: Otomasyon işleri yutarken, devletler ve toplumlar bu yeni gerçekliğe nasıl yanıt verecek?
Ne mi o problem; gelişmiş olan ülkeler ve gelişmekte olan ülkeler arasında büyüyen rakamlar olmasın.
Gelir uçurumu konusunda gelişmiş olan ülkeler ile gelişmekte olan ülkeler arasındaki farkın 50.000 dolar şeklinde seyredebilir olduğu iddia edilebilir. Refah alanı bulan ülkelerde yeniden eğitim, otomasyon vergisi veya yeşil ekonomi modelleri kulağa hoş geliyor ama gelişmekte olan ülkeler için finansman ve irade eksikliği alarm frenini çekiyor.
İşte “parti bitti” dediğim yer burası, hem de dans edecek yer olmadığından.
Gelir eşitsizliğini dengelemek adına işlevsel modeller mi aranıyor?
Bu istihdam ekolojisinin düzenlenebilir olduğunu kim söyleyecek peki?
Yıllardır emeklilik yaşına yaklaşan nüfusun bütçeye getireceği maliyet hesaplarıyla meşgul olanlar mı? Büyük krizlerde gördüğümüz gibi emeklilik fonlarını piyasada trade eden bir finansal zihniyetten bahsediyorum burada. ABD Merkez Bankası (Fed), Avrupa Merkez Bankası (ECB), Uluslararası Para Fonu (IMF) ve benzeri küresel ekonomik otoriteler, öngörülü politikalar çerçevesinde yeşil ekonomi başlığı altında teşvik ve yaptırım mekanizmaları sunsalar da bu girişimler çoğunlukla sistemin temel kâr modeline dönüşmekten uzak kalarak, zaten küresel daralmayı başlatmadılar mı?
Bu kurumlar, sempatik gelen “sürdürülebilirlik” söylemiyle piyasalara yön verirken, aynı zamanda finansal spekülasyonlardan da geri durmadılar. Özellikle kripto para piyasalarında, istediklerini söyleyip istemedikleriyle; büyük balonların oluşmasına sebep olmadılar mı? Bugün bu balonların patlaması durumunda ortaya çıkacak etkileri kontrol altına alabilecek bir hazırlık içinde olup olmadıkları sorgulanıyor mu? Ekonomik kararları yönlendiren bu kurumların gerçekten ne yaptığını güncel olarak baktığımızda anlamak zor, büyük fotoğrafa bakınca da kafaların karışık olduğu ortada; eleştirmek ise kolay gibi görünse de, bu eleştirilerin dayanağını görmek isteyenler için tablo giderek daha karmaşık bir hal alıyor.
“Yapay zeka duygularımızı yönlendirmeyi bilirse, öldürme kısmını biz kendi aramızda hallederiz. “ Y.N.Harari
AI sistemlerini teknolojinin bir lütfu olarak sayarak, kullanarak ve işimize yaradığı ve hatta işimize geldiği gibi kullanabiliriz. Buna karşı olmak da neyin kafası, bu yazıda böyle bir durum yok, farkında olmadan yazıyor gibi olduğum yerler varsa da affola.
Burada bir kaygı eşiği üzerine çalışıyor olduğumun farkındayım. Ama sonuçta “neden” diye sormak da kusura bakmayın biz insan türünün görevi olacak.
Çünkü “neden?” sorusunu sormayı bıraktığımız anda, düşünme eyleminden de feragat etmiş oluyoruz. Böylece, düşünme yerine algoritmaların, tercihler yerine verilerin, karar yerine otoritelerin geçmesi kaçınılmaz hale geliyor. Silver’ın çizdiği tabloya bakınca, bir teknoloji değil, bir düşünme biçimiyle karşı karşıya olduğumuzun farkına varmak gerekiyor.
Ve bu farkındalık, sadece yapay zekâya değil, onun neyin yerini aldığına bakmakla mümkün.
Oyunu oynamak önemli hatta çok iyi oynamak da önemli kazanıyor olmak en önemlisi
ama neden oyunda olduğunu bilmek daha önemli bana kalırsa.
Ve bunun bir oyun olduğunu bilmek de..
Bu noktada AI, etkin olabilir ama bilinçli değildir. Bu fark, onun sadece bir araç olarak değerlendirildiğinde işlevli kılıyor.
Onun için “başarı” sadece ödül fonksiyonunda artışı temsil eder. Burada eksik olan şey, “öz-bilinçli değerlendirmedir.
Bu durum, AI'nın insanlık açısından taşıdığı en ciddi sınırlardan biridir. Çünkü düşünme, sadece veri işleme değil, aynı zamanda “öznelliği ve bağlamı” anlamayı da gerektirirken; niye yaptığını anlama ihtiyacını duyacak mı kendi kendini değerlendirme kapasitesi nerde peki?
belki “hayal gücünü taklit edebilir”, ama hayal kuramaz.
İlerletelim, Hayal kırıklığına uğradığının bilgisi nerede? kurallar kitabı 6. sayfad veride var olduğunu düşünelim; bunu taklit edebilir mi?
Evet, mümkün bunu yansıtabilir, ama bu ona direnç olarak mı bağlam bilinci oluşturacak yoksa tükenme olarak mı bağlam bilinci oluşturacak?
Zaten anlamlandırmak bu kimin beklentisi?
Bu yüzden AI’nın etik boyutta karar vermesi, temelde “paradoksal bir çaba” olabilir.
İnsan türü olarak bir şeyin gelişimini ve paralel olarak geçmişini ve o şeyin geleceğini değerlendirirken etik, mantık ve muhakeme etmek ile ilgilenir.
( Etik : Neyin doğru/yanlış olduğuna karar verme
Mantık: Olayları tutarlı biçimde ilişkilendirme
Muhakeme: Karşıt fikirleri dinleme, tartma ve yeni bir pozisyona ulaşma )
Bu üç unsur -etik, mantık ve muhakeme- sadece rasyonaliteyi değil, aynı zamanda duygusal zekayı ve toplumsal sorumluluğu da içerir.
Etik, mantık ve muhakeme insan türünün önemli etkileşimlerinden değil midir? ve belki de kâinata katkısı olacak yegâne ‘şey lerindendir.
AI, ne kadar karmaşık stratejiler üretirse üretsin, bir hamlenin ardındaki niyeti, bir kararın etik ağırlığını veya bir bağlamın insan ruhundaki yansımasını anlayamaz. Onun “yaratıcılığı”, veri tabanlı bir keşiften ibaret; insanın hayal gücünün, hatalardan, umutlardan ve pişmanlıklardan beslenen özgünlüğünden yoksun. AI’ı bir otorite olarak görmek, bu eksikliği görmezden gelerek, insan muhakemesinin yerini mekanik bir optimizasyona teslim etmektir. Oysa insanlık, etik, mantık ve muhakeme gibi hazineleriyle, kararların yalnızca doğruluğunu değil, aynı zamanda anlamını da sorgulama sorumluluğunu taşımalıdır.
AI’ı araç olarak kullanmak, bilgiye hızlı erişim ve veri analizi açısından çok değerlidir. Ancak, onu karar verici bir otorite konumuna getirmek, insanlık açısından ciddi riskler barındırır. David Silver, AI’nın “deneyim çağı”nda, kendi veri setlerini üreterek insan bilgisinden bağımsız öğrenebileceği bir gelecek öngörüyor. Örneğin AI, gerçek dünyada kendi deneylerini tasarlayabilir. Ancak, bu özerklik, AI’nın insan kontrolünden çıkma veya beklenmedik sonuçlar üretme riskini artırıyor. Bu nedenle, AI ile tespit edebiliriz, ama teşhis etmek, etik ve bağlam anlayışıyla insanlara kalmalıdır.
Çünkü insan, kendi düşünme kapasitesini başka otoritelere devrettiğinde, giderek düşünmekten vazgeçer.
Çetin Demir
Mayıs 2025
Yorumlar
Yorum Gönder