İNSANLIK YAPAY ZEKÂDAN SAĞ ÇIKABİLİR Mİ?

Google kurucusu Larry Page, süper akıllı yapay zekânın (YZ) “evrimin bir sonraki adımı” olduğunu düşünüyor. Hatta 120 milyar dolarlık serveti olan Page, yapay zekâ sebepli soy tükenmesini engelleme ve insan bilincini koruma çabalarının “türcü” ve “duygusal saçmalıklar” olduğunu savunuyor.

Temmuz ayında, eski Google DeepMind çalışanı bilim insanı -YZ’nin önemli alt alanlarından olan pekiştirici öğrenmenin öncülerinden- Richard Sutton bu teknolojinin “varlığımızı ortadan kaldıracağını” ve “başarıya direnmememiz gerektiğini” söyledi. 2015’te bir konuşmasında Sutton “her şey yıkılsa ve YZ hepimizi öldürecek olsa, insanların evrendeki akıllı yaşamın son formu olmayacak olması çok mu kötü?” diye sordu.

Buradaki konu biyolojik bir soy tükenmesi değil” dedi bana 66 yaşındaki Sutton. “İnsanlığın aydınlığı ve algılayışımız, zekâmız -bilincimiz diyelim isterseniz- etten kemikten insanlar olmadan da sürebilir.

En fazla atıf yapılan ikinci bilim insanı olan 59 yaşındaki Yoshua Bengio, derin öğrenme konusundaki kurucu çalışmalarıyla biliniyor. Page ve Sutton’un iddialarına cevap olarak Bengio bana “İstedikleri şey, bence insanlığın geleceği ile zar atmak. Şahsen bunun suç muamelesi görmesi gerektiğini düşünüyorum.” Biraz da yanıtına şaşırarak, tam olarak neyin yasaklanmasını istediğini sorduğumda, “kasten kendi çıkarını düşünmesi için tasarlanmış ve bize üstün gelecek güçte YZ sistemleri” kurmaya dönük çabaları kast ettiğini söyledi. Mayıs ayında, Bengio ilerlemiş YZ sistemlerinin nasıl kontrolden çıkarak insanlık için soy tükenme riski yaratabileceğine dair yazmaya ve konuşmaya başladı.

Bengio gelecekte, hakiki insan seviyesindeki yapay zekâ sistemlerinin kendi kapasitelerini ilerleterek, yeni ve daha zeki türler yaratabilecekleri ihtimaline işaret etmişti. İnsanlık, büyük oranda kazara birçok farklı türün soyunun tükenmesine sebep olmuştu. Şimdi sıranın bize geldiğini düşünüyorum- ve bunda da yalnız değil.

Bengio, bilgisayarcıların nobeli olan 2018 yılı Turing Ödülünü, derin öğrenmenin öncülerinden Yann LeCun ve Geoffrey Hinton ile paylaşmıştı. Yaşayan en fazla atıf yapılan bilim insanı olan Hinton, Mayıs ayında Google’daki kıdemli rolünden ayrılarak gelecek YZ sistemlerinin insanlığı silebileceğinden daha rahat şekilde bahsedebildiğinde önemli yankı uyandırmıştı. Hinton ve Bengio “x-risk” topluluğuna katılan en ünlü YZ araştırmacıları. Kimileri tarafından YZ güvenliği savunucuları, kimileri içinse kıyametçiler olarak bilinen bu geniş grup YZ’nin insanlık için varoluşsal bir tehdit olduğundan endişeleniyor.

Hinton’ın Google’dan istifa ettiği hafta, yüzlerce YZ araştırmacısı ve önde gelen isimleri açık bir mektup yazarak “YZ kaynaklı bir yok oluş riskini hafifletmek, pandemi ve nükleer savaş gibi diğer toplumsal ölçekli riskler gibi küresel bir önceliğe sahip olmalıdır” dediler. Hinton ve Bengio’nun imzacı olduğu mektupta, OpenAI CEO’su Sam Altman ve diğer önde gelen YZ laboratuvarlarının başkanlarının da imzası bulunuyor.

Hinton ve Bengio ayrıca Ekim ayında yayınlanan ve “otonom YZ sistemlerinde geri çevrilemeyecek bir insan kontrolü kaybı” riskine dair uyarıda bulunan görüş belgesinin de ilk imzacılarındandı, bu belgeye Nobel jürisi Daniel Kahneman ve Sapiens’in yazarı Yuval Noah Harari de imza attılar.

Meta’da YZ sistemlerini yöneten LeCun, insan seviyesindeki yapay zekânın gelmesinin yakın olduğuna katılırken, Bengio ile girdiği kamuya açık bir tartışmada YZ temelli bir yok oluşa dair “eğer tehlikeliyse, o zaman inşa etmeyiz” dedi.

Derin öğrenme dünyadaki en ileri yapay zekâ sistemlerini geliştiriyor, DeeoMind’in katlanması modelinden OpenAI’nin ChatGPT’si gibi büyük dil modellerine (LLM) kadar. Kimse gerçekten derin öğrenme sistemlerinin nasıl çalıştığını anlamıyor, fakat performansları katlanmaya devam ediyor. Bu sistemler iyi anlaşılmış prensip setlerine göre işlemek için tasarlanmadılar, aslen dil ve algılama gibi kompleks davranış gösteren büyük veri gruplarındaki desenleri analiz ederek sonuca varmak için “eğitildiler.” YZ geliştiricisi Connor Leahy bana bunun kod yazmaktan çok “bakteri üretme kutusunu dürtmek gibi” olduğunu söylemişti. Ekim ayında yayımlanan görüş belgesi “henüz kimse YZ davranışını kompleks değerlerle nasıl güvenilir biçimde uyumlulaştırabileceğimizi bilmiyor” diye bir uyarıda bulunmuştu.

Tüm bu belirsizliğin ortasında, YZ şirketleri kendilerini bu sistemi ellerinden geldiği kadar güçlendirme yarışında görüyorlar -yarattıkları şeylerin aslında nasıl işlediğini anlamak için çalışılabilir bir plan olmadan, güvenlik konusunda kestirmeden giderek daha fazla Pazar payı kazanma yarışı. Yapay genel zekâ (AGI, tr.YGZ) YZ laboratuvarlarının öncelikle ulaşmak için çabaladıkları kızıl elmaları. YGZ, genellikle neredeyse tüm entelektüel görevlerde en az insanlar kadar iyi olan bir sistem olarak tanımlanıyor. Aynı zamanda Bengio ve Hinton’un insanlığın sonuna götürecek olduğuna inandığı şey.

Garip şekilde, YZ kapasitesini bilfiil geliştiren insanların kimisi de bunu yapmanın kaçınılmaz olarak kıyameti yaratacağının önemli bir olasılık olduğunu düşünüyor. Makine öğrenimi araştırmacıları arasında yapılan 2022 yılında bir araştırma, katılanların yarısının gelişmiş yapay zekânın “insanların yok oluşuna ya da benzer bir kalıcı ve hasar bırakacak bir zayıflatmaya” yönlendirme ihtimalinin en az yüzde on olduğunu düşünüyor. OpenAI’yi kurmadan yalnızca aylar önce Sam Altman, “Yapay zekâ bizi muhtemelen dünyanın sonuna götürecek, fakat bu olurken çok iyi şirketler kurulacak” demişti.

Özellikle ChatGPT yayınlandığından beri yapay zekâya dair kamuoyu da karamsarlaştı. 2023 yılında yapılan bir ankete göre, yapay zekânın insanlığa karşı varoluşsal bir tehdit olduğunu düşünen Amerikalıların sayısı, düşünmeyenlerden daha fazla. Kimi örneklerde de örneğin insanlara insan seviyesinde veya üstünde bir yapay zekâ isteyip istemediklerini sorulduğunda, ABD ve Britanya’da büyük çoğunluk istemediğini belirtti.

Şu ana kadar, sosyalistler yapay zekâ konusuna değindiğinde, bu genelde YZ temelli ayrımcılığın altını çizmek ya da zayıf sendikalar ve güçlü kapitalistlerin olduğu dünyada otomasyonun olası olumsuz sonuçlarına dair uyarılarda bulunmak üzerine oluyor. Ancak sol, Hinton ve Bengio’nun kâbus senaryosu konusunda şüphe çekecek kadar sessiz -gelişmiş YZ hepimizi öldürebilir.

Endişe Verici Yetiler

Her ne kadar x-risk grubunun dikkatinin çoğu insanlığın eninde sonunda yapay zekânın kontrolünü kaybedeceği fikrine odaklı olsa da başka birçokları da daha düşük kapasiteli sistemlerin kısa sürede kötücül aktörleri güçlendirmesinden endişeli.

Neyse ki biyolojik silah yapmak çok zor. Ancak bu da yakında değişebilir.

Eski OpenAI çalışanlarının kurduğu Anthropic isimli önde gelen Yapay Zekâ laboratuvarı, Büyük Dil Modellerinin (LLM), bir biyo-terörist adayına ne kadar yardımcı olabileceğini anlayabilmek için biyo güvenlik uzmanlarıyla ortak çalışmada bulundu. Senato alt komitesine Temmuz ayında verdiği ifadede Anthropic CEO’su Dario Amodei, biyolojik silah üretiminin kimi kademelerinin kitaplarda ya da arama motorlarında bulunamayacağını, ancak “bugünün yapay zekâ envanterinin, bu bilinmeyen kademelerin yerini tamamlanmamış şekilde de olsa doldurabileceğini” ve “bugünün sistem kapasitesi üzerinden ileriye dönük hesaplamalar, yapay zekâ sistemlerinin önümüzdeki iki üç yıl içerisinde tüm kayıp parçaları bulabileceği gibi bir somut riski önümüze koyuyor”.

Ekim ayında, New Scientist Ukrayna’nın ölümcül otonom silahların (LAW) -bildiğimiz katil robotların- kullanıldığı ilk savaş alanı olduğunu bildirdi. ABD, Çin ve İsrail kendi ölümcül otonom silahlarını geliştiriyor. Bu silahların kullanımına dair yeni uluslararası yasaya karşı Rusya da ABD ve İsrail’in muhalefetine katıldı.

Fakat, yapay zekânın varoluşsal bir risk olduğuna dair düşünce geliştikçe bu fikrin muhalifleri artıyor ve baş döndürücü bir hızla ilerleyen YZ tartışmasını çözümlemek daha da zorlaşıyor: konunun eşit derecede hâkimi olan insanlar yapay zekâ riskinin gerçek olup olmadığı konusunda birbirinin zıttı görüşlerde bulunuyor ve sermaye sahibi girişimcilerle YZ etiğini savunan ilericiler aynı açık mektuplara imza atıyor. Ve her ne kadar x-risk fikri en hızlı destek kazanan olsa da büyük bir yayın neredeyse her hafta x-riski tartışmanın bugüne dair sorunları tartışmaktan alıkoyduğuna dair makaleler yayınlıyor. Diğer taraftan, manyetizma kanunları gereği daha fazla sermaye ve insan gücü sessizce yapay zekâ sistemlerini güçlendirmeye adanmış durumda, daha güvenli ve tarafsız hale getirmek yerine.

Kimileri de yapay zekâ modellerinin kontrolü güçsüz ellerimizden koparacağına dair “bilim kurgu” senaryodan endişe etmek yerine, taraflı, kırılgan ve konuşkan sistemlere çok fazla sorumluluk vererek daha sıradan bir Pandora kutusunu açıp, sebep olacak algoritmaların kendi cürmü kadar edecek, daha tanıdık ve can sıkıcı sorunlarla karşılaşacağımıza inanıyor. Bu araştırmacı topluluğu ve savunucuları -çoğunlukla “YZ etiği” olarak biliniyor- yapay zekânın yarattığı acil sorunlara odaklanma eğiliminde, model hesap verilebilirliği, algoritma şeffaflığı ve makine öğrenimi adaleti gibi çözümler keşfediyor.

Yapay zekâ etiği topluluğunun önde gelen isimlerinin birkaçıyla, örneğin bilgisayar bilimcileri olan 33 yaşındaki Joy Buolamwini ve 27 yaşındaki Deborah Raji ile konuştum. Her ikisi de ayrımcı ve sorunlu yapay zekâ modellerinin vermekte oldukları zarara karşı çığır açan araştırmalar yürütüyor ve bu zararların, bir gün absürt öbür gün ise abartılmış olduklarını düşünüyorlar. Diğer birçok YZ etik araştırmacısı gibi onların da çalışması iş ve aktivizmin bir karışımı.

YZ etik dünyasında konuştuğum insanların en çok vurguladıkları görüş, Yapay zekânın geleceğinin bütünlüklü bir teknolojik işsizlik ya da yok oluş gibi yeni, esaslı krizler yerine daha çok hapis ve kredi başvurularında ırkçılığın artışı, iş yerlerinin daha fazla Amazon depolarına benzemesi, yoksul emekçilere saldırılar ve tekno-elitlerin giderek daha zenginleşmesi ve köklenmesi olacağı yönünde.

Bu kitlenin popüler argümanlarından biri yok oluş anlatısının, büyük teknoloji üretimlerinin yetilerini abarttığı ve yapay zekânın bugün verdiği zararlara dönük odağı tehlikeli şekilde dağıttığı üzerine. En iyi durumda, x-risk fikrine odaklanmak zaman ve para israfı. En kötü durumda ise felaket politikalara yol açabilir.

Fakat x-riske inananlar, “yapay zekâ bugün zarar veriyor” ve “yapay zekâ dünyanın sonunu getirebilir” fikirlerinin birbirini dışlamadığını vurguluyor. Kimi araştırmacılar açık şekilde bugünün zararlarına odaklananlar ve soy tükenme riskine odaklananlar arasında köprü kurmak için ortak politik hedeflerin altını çiziyor. Yok oluş mektubunda imzası bulunan bir başka isim olan yapay zekâ profesörü Sam Bowman, algoritma taraflılığını ortaya çıkarma ve azaltma konusunda araştırdı, Yapay Zekâ etiği konferansına verilen bildirileri değerlendirdi. Eş zamanlı olarak Bowman daha fazla araştırmacıyı yapay zekâ güvenliği konusunda çalışması için çağrı yaparken, “büyük dil modellerinin yetilerini küçümsemenin tehlikeleri” üzerine de bir mektup yazdı.

X risk topluluğu, iklim savunuculuğunu bir analoji olarak kullanmaktan çekinmeyerek, iklim değişikliğinin uzun erimli zararlarını azaltmaya odaklanmak, hava kirliliği veya petrol sızıntılarından kaynaklanan kısa vadeli zararlarına dair odağı dağıtıyor mu diye soruyorlar.

Ancak kendi itiraf ettikleri üzere, x-risk tarafındaki herkes çok da diplomatik davranmıyor. 2022 Ağustos’unda Anthropic’in kurucularından Jack Clark Twitter’de tartışma yaratan yapay zekâya dair politika üretimi konusunda “Uzun vadeli yapay genel zekâ tipine dair politika üretmeye dönük çalışanlar, yapay zekânın yayılmasının, zararlarının yarattığı acil sorunları ya görmezden geliyor ya küçümsüyor ya da üzerine düşünmüyor bile” diye yazdı.

“Yapay Zekâ Dünyayı Kurtaracak”

Yapay zekâ konusundaki üçüncü bir taraf ise yeterince hızlı olmadığımızdan endişeli. Milyarder Marc Andreessen gibi önde gelen kapitalistler, Yapay Genel Zekânın gerçekleşebilirliği konusunda güvenlikçi yaklaşanlarla aynı fikirde, ancak bunun hepimizi öldürmek yerine, tahayyül etmesi zor inanılmaz bir bolluğun ve büyülü teknolojilerin altın çağına kapı aralayacağını düşünüyor. Çoğu silikon vadisinde bulunan ve kamuoyunda YZ propagandacıları olarak bilinen bu grup, daha çok yapay zekâya dönük olarak daha fazla düzenleme isteyen tepkilerin, dönüştürücü, dünyayı kurtaracak bir teknolojinin daha beşikte yavaşlatılarak, insanlığı ekonomik durağanlığa mahkûm edeceğinden endişeleniyor.

Kimi teknoloji iyimserlerinin yapay zekânın ilerlettiği bir ütopyaya dair tahayyülleri Karl Marx’ı bile sıkıcı hale getiriyor. Guardian geçenlerde OpenAI’nin başmühendisi Ilya Sutskever ile 2016’dan 2019’a kadar yaptıkları röportajları içeren bir dosya yayınladı. Sutskever, bu röportajlarda son derece iddialı şekilde “Yapay zekâ bugün yaşadığımız bütün sorunları çözecek. İşsizliği, hastalıkları, yoksulluğu ortadan kaldıracak. Ve sonra yeni sorunlar yaratacak” diyor.

Andreessen Sutskever’in sözlerine “ama” kısmına kadar katılıyor. Temmuz’da, “YZ Neden Dünyayı Kurtaracak” başlıklı bir makale yayınlayan Andreessen, bu makalesinde eğer öldürene kadar yasalarla boğmazsak yapay zekânın nasıl “değer verdiğimiz her şeyi daha iyi” hale getirebileceğini açıklıyor. Bu makalesini, Ekim ayında “Tekno-Optimist Manifesto” izledi, bu metinde ise İtalyan faşizminin kurucularından birini överken, “varoluşsal risk”, “sürdürülebilirlik”, “güvenlik” ve “tekno etik” gibi fikirleri ilerlemenin düşmanı ilan etti. Andreessen sözünü sakınıyor, “Yapay zekânın herhangi bir şekilde yavaşlatılması can kayıpları yaratacak. Ölümlerin önüne geçebilecek bir yapay zekânın önlenmesi bir cinayet biçimidir”.

Andreessen, Martin Shkreli ile birlikte “e/acc” olarak da bilinen, bilimcilik takıntısı, hiper kapitalizm ve doğalcılık yanılgısının etkisinde büyük oranda online bir grup olan “etkili ivmecilik” (effective accelerationism) akımının en ünlü öncülerinden. Geçtiğimiz yaz viral olan E/acc, gerici yazar Nick Land’ın post-insanlığa, yapay zekânın ilerlettiği bir geleceğe ilerleyebilmemiz için kapitalizmi daha da şiddetli bir hale getirmemiz gerektiğini savunan ivmecilik teorisini savunuyor. E/acc, bu fikri alıp fizik ve internet mimleri ile süsleyerek Silikon Vadisi elitleri içerisindeki bir grup arasında ana akım hale getirdi. Yapay zekânın yavaşlatılması gerektiğini savunanlara reaksiyon olarak kurulan bu topluluk, isim babaları olan Etkili Altrüizm grubundan esinlendi.

Et insanlara” veda etmeye hazır olduğunu söyleyen yapay zekâ “fanatiği” bilim insanı Richard Sutton şu an 1990’ların ünlü oyunu Doom’un ardındaki efsane John Carmack’ın kurduğu Keen AGI isimli girişimde çalışıyor. Carmack’ın sözleriyle şirketin misyonu “Çılgın bilimin yolunda, ya yapay genel zekâ ya hiç!”.

Kapitalizm Kötüleştiriyor

Şubat ayında Sam Altman Twitter’de Eliezer Yudkowsky’nin Birgen “Nobel Barış Ödülünü hak edebileceğini” yazdı. Neden? Çünkü alaylı araştırmacı “Yapay genel zekâyı hızlandırmak için herkesten çok şey yaptı”. Altman Yudkowski’nin DeepMind’e hayati bir erken fonu kazandırmaktaki yardımlarını ve “OpenAI’yi kurma konusundaki kritik rolünün” altını çizdi.

Yudkowsky henüz böyle bir terim yokken bile ivmeciydi. Henüz 17 yaşında -diktatörlükler, açlık ve hatta ölümün kendisinden bile bıkarak- insanlığın tüm sorunlarını çözecek bir dijital süper zekânın yaratılması gerektiğini talep eden bir manifesto yazdı. Hayatının sonraki on yılında teknoloji sevdasının yerini teknoloji fobisi aldı ve 2008’de bu dönüşümünü “Neredeyse dünyayı yok edecektim, desem fazla kibirli olur” diyerek itiraf etti.

Yudkowsky şu an yapay genel zekânın hepimizi öldürebileceği fikrini popülerleştirmekle ünlü ve tüm yapay zekâ kıyametçileri arasında en karamsarı. Teknoloji sevdalısı bir kuşak Yudkowsky’nin blogunu okuyarak büyüdü, ancak çoğu (en belirleyicisi de Altman) yapay genel zekânın bizi öldürmemesinin ne kadar düşük bir ihtimal olduğu inancından çok nasıl dünyadaki en önemli şeyi olduğu konusundaki fikirlerini özümsedi.

Konuşmamızda, Yudkowsky yapay zekâyı “altın basabilen” bir makineye benzetti,  “atmosferi yakana kadar da basmaya devam eden” bir makine.

Ve atmosferi yakacak olsun ya da olmasın, bu makine hakikaten de şu anda her zamankinden daha fazla altın basıyor. “Üretken Yapay Zekâ” patlaması bazı insanları çok ama çok zengin etti. 2019’dan bu yana Microsoft OpenAI’a toplam 13 milyar dolar yatırım yaptı. ChatGPT’nin çılgın başarısı baş döndürmeye devam ederken, Microsoft, ürünün piyasaya girmesinden bugüne geçen bir senede 1 trilyon dolar kazandı. Bugün elli yıllık şirket Google ve Meta’nın toplamından daha değerli.

Kar maksimizasyonuna odaklı aktörler, daha fazla zenginliğe ulaşabilmek için ya da sadece dijital süper zekâyı yaratabilme şerefine nail olabilmek için hiçbirimizin sırtlanmayı kabul etmediği riskleri görmezden gelerek bu çarkı döndürmeye devam edecek. Sutton bunun “tarihin en büyük entelektüel başarısı olacağını… değerinin insanlığın, yaşamın, iyi ve kötünün ötesine geçeceğini” yazmıştı. Piyasa baskısı muhtemelen şirketleri yapay zekâ sistemlerine ilerledikçe giderek daha fazla güç ve özerklik atamaya zorlayacak.

Bir Google yapay zekâ araştırmacısı bana “Bence büyük şirketler pazar payını kapma acelesinden yapay zekâ güvenliğini saçma bir zaman kaybı olarak görüyor” diye yazdı. Bengio da bana daha da kötüleşme potansiyeli olan “şirketler arası tehlikeli bir yarış” gözlemlediğini söylemişti.

Bing arama motorunun OpenAI tarafından güçlendirilmesi üzerine panikleyen Google “acil durum kodu” ile risk ihtimallerini yeniden “hesaplayarak”, çalışanlarının muhalefetin rağmen kendi büyük dil modelleri olan Bard’ı aceleyle piyasaya sürdü. İç tartışmalarda, çalışanlar Bard’ı “patolojik bir yalancı” ve “utanç verici” buldu. Google yine de piyasaya sürdü.

Yapay Zekâ Güvenliği Merkezi müdürü Dan Hendrycks, yapay zekâ geliştirmelerini ilerleten ana faktörün “güvenlik konusunda kestirmeye gitmek” olduğunu söyledi. “Bu kadar yoğun rekabet baskısının olduğu ortamda, ideallerin pek de bir kıymeti olduğunu düşünmüyorum.” İronik şekilde, Hendrycks Elon Musk’ın en son hevesi xAI’nin güvenlik danışmanlığını da sürdürüyor.

Önde gelen üç öncü yapay zekâ laboratuvarı da bağımsız, misyonuna sadık organizasyonlar olarak girdikleri bu yolda ya teknoloji devlerinin alt şirketlerine dönüştüler (Google DeepMind gibi) ya da trilyon dolarlık şirketlerden o kadar fazla milyar dolarlık yatırımlar aldılar ki diğerkâm idealleri, sonu olmayan piyasa değeri büyütme yolunda tüketildi.(Anthropic Google ve Amazon’dan toplam 6 milyar dolar yatırım aldı, Microsoft’un 13 milyar dolarlık yatırımı şirkete OpenAI’nin yüzde 49’luk hissesini kazandırdı.) New York Times geçtiğimiz günlerde DeepMind’ın kurucularının, Google’ın kendi buluşları ile ne yapacağı konusunda giderek daha fazla endişelendiğini yazdı. Google bu endişeye, DeepMind kurucularının ve çalışanlarının ücretlerini ve kâr paylarını artırdı. Onlar da hizaya geldiler.

Önde gelen laboratuvarların birinde çalışan bir geliştirici, Ekim ayında bana bu laboratuvarların liderlerinin genelde yapay zekânın para ihtiyacını gereksiz hale getireceğine inanan, kâr arayışını fon bulma amacı ile “büyük oranda araçsal” gören insanlar olduğunu yazdı. Ancak “sonra devreye yatırımcılar giriyor (ister girişimci olsun ister Microsoft) ve kâr arayışı için baskı yapmaya başlıyorlar”.

20220 ve 2022 yılları arasında 600 milyar dolardan fazla şirket yaratımı bu sektöre aktı, sadece 2021 yılında düzenlenen tek bir konferans, 30 bin araştırmacıya ev sahipliği yaptı. Aynı dönemde Ekim 2022 tarihli bir araştırmaya göre yalnızca dört yüz tane tam zamanlı yapay zekâ güvenliği araştırmacısı var ve 2023’te düzenlenen en önemli yapay zekâ etiği konferansına 900’den az katılımcı ilgi gösterdi.

Yazılımın “tüm dünyayı sindirdiği gibi” yapay zekânın da benzer bir kazanan her şeyi alır mantığı göstererek çok daha fazla varlığa ve zenginliğe kapı açacağını beklemeliyiz. Altman “aklın fiyatının” yapay zekânın başarısı sayesinde sıfırlanacağını öngörmüştü ve 2021’de “emekten sermayeye daha fazla güç akışı olacak” diye yazmıştı. “Eğer kamu politikaları uyum sağlamazsa, çoğu insan bugünkünden daha kötü durumda olacak.” Ayrıca tartışma yaratan bir paylaşımında Jack Clark, “Üretim arttıkça maliyetlerin düştüğü bir kapitalizm, doğası gereği anti demokratiktir, dolayısıyla sermaye yoğun yapay zekâ da anti demokratiktir”.

Yapay zekâ güvenliği konusunda önde gelen fikir insanlarından, GovAI’nin planlama müdürü Markus Anderljung aynı zamanda “öncü yapay zekâyı” denetleme üzerine ilgi çekici bir raporun yazarı. Bana yazdığı bir mesajında “Eğer kapitalizmin güncel biçiminden kaygılıysan, ekonominin büyük kısmını kâr maksimizasyonu için tasarlanmış bir yapay zekânın yönettiği dünyadan daha da kaygılı olmalısın” demişti.

2021 Haziran’ında Sam Altman da bu yorumla aynı fikirdeydi, Ezra Klein’e OpenAI’nin kurucu felsefesinden bahsederken: “Teşvik edebileceği şeyler arasında bizi en çok kaygılandıran, sınırsız kâr güdüsüydü, ne kadar fazla o kadar iyi fikri… Ve özellikle bugünkü gücüyle her amaca uygun yapay zekâ sistemlerine sahipken, sınırları çizilmemiş bir kâr maksimizasyonu güdüsü istemezsiniz” diyordu.

Yapay zekâ güvenliği tartışmalarını bugüne kadar en çok alevlendiren hamle, OpenAI’nin kâr amacı gütmeyen yönetimin kurulunun, şükran gününden önceki Cuma olan 17 Kasım 2023’te CEO Sam Altman’ı kovması olmuştu. Kurulun, OpenAI’nin sıra dışı tüzüğü sebebiyle, yatırımcılara veya çalışanlara değil, “insanlığa” karşı güvene dayalı bir sorumluluğu vardı. Bu hamleyi meşrulaştırmak için, belli belirsiz şekilde Altman’ın dürüst olmadığı ima edildi, ancak ironik şekilde büyük ölçüde de bu kararın sebebi konusunda sessiz kalındı.

Bu hamleyi takip eden pazartesi günü, çalışanların çoğunun Altman işe geri alınmazsa Microsoft’a geçmekle tehdit ettiği bir mektup yazdıktan sonra, saat 3 civarında Microsoft Altman’ın tüm OpenAI çalışanlarının yer alabileceği bir ileri araştırma laboratuvarı kurmakta olduğunu duyurdu. (Her ne kadar Altman popüler bir CEO olsa da, bu işten atmanın OpenAI’nin çalışan hisselerini 86 milyar dolara bir başka şirkete satma hamlesini bozduğunu söylememiz gerek). Çarşamba saat 1 civarında OpenAI Altman’ın yeniden CEO yapıldığını ve iki yeni kurul üyesi eklendiğini duyurdu: bunlardan biri de eski Twitter yönetim kurulu üyesi, eski Hazine bakanı Larry Summers idi.

Bir haftadan kısa sürede, OpenAI yöneticileri ve Altman Microsoft ve kendi çalışanlarıyla iş birliği yaparak hem şirkete geri dönmeyi başardı hem de kovulmasına yol açan birçok kurul üyesini atabildi. Microsoft’un ilk tercihi Altman’ın CEO olarak geri dönmesiydi. Bu beklenmedik gelişmeler sonuç olarak Microsoft hisselerinin yüzde beş artırırken (140 milyar dolar), Altman’ın yeniden işe alımı ise rekor kırdı. Bir daha böyle bir gelişmeye hazırlıksız yakalanmak istemeyen Microsoft artık kâr amacı gütmeyen kurulda, oy hakkı olmayan bir sandalye sahibi.

Altman’ın kovulmasının hemen ardından Twitter (X) patladı ve sanal dedikoduların, kaynaksız makalelerin gazlamasıyla aslında güvenlik takıntılı kurul üyelerinin Altman’ı OpenAI modellerini agresif şekilde pazarlayabilme uğruna güvenliği hiçe saydığı için kovduğu dedikodusu yayıldı. Bu dedikoduların ve E/acc taraftarlarının reaksiyonların hararetinde, Pseudonymous kurucusu @BasedBeffJezos “Bunlar aslında terörist. 80 milyar dolarlık değeri bir gecede yok etmek bir terör eylemi” diye yazdı.

Bu gelişmeleri takip eden haberler, kurulun kararını etkileyen Altman’a karşı güvensizliğin temelinin yapay zekâ güvenliği olmadığını ortaya koydu. The Wall Street Journal Altman’ı kovma kararının arkasında tek bir olay değil, artık kurul üyelerini rahatsız eden, zamana yayılmış, istikrarlı bir güven erozyonu” olduğunu yazdı.

Kovma kararı öncesindeki haftalarda, iddialara göre Altman OpenAI’nin yapay zekâ güvenliği konusundaki kararlılığına gölge düşündürdüğü bir makalede imzası olması sebebiyle kurul üyesi Helen Toner’i aldatıcı taktiklerle kuruldan atmaya çalıştı. Etkili Altrüizm taraftarı bir yapay zekâ yönetimi araştırmacısı olan Toner, makalesinde Anthropic şirketini, “ChatGPT’nin çıktığı süreçte gördüğümüz aceleci, kestirmeci yaklaşımdan” kaçındığı için övüyordu.

New Yorker’de çıkan bir haber, “kurulun 6 üyesinden bazılarının Altman’ı manipülatif ve iş sinsi bulduğunu” yazdı. Kovulma haberinden günler sonra, geçmişte OpenAI’de bulunmuş, şu anda da DeepMind’da yapay zekâ araştırmalarında çalışan bir isim, Time makalesindeki röportajında Altman’ın “birçok kereler yalan söylediğini” ve “aldatıcı, manipülatif, insanlara karşı kötü” olduğunu aktardı.

Bu da Altman’ın ilk kovulması değil. 2019’da Y Combinator şirketi kurucusu Paul Graham Altman’ı, kendi çıkarını şirketin çıkarından önde tuttuğu gerekçesiyle yöneticilik görevinden aldı. Graham geçmişte “Sam güç sahibi olma konusunda inanılmaz başarılı” demişti.

OpenAI’nin ilginç yönetim modeli aslında kâr arayışının yaratacağı yozlaşmayı önleyebilmek için böyle belirlenmişti ancak Atlantic’in doğru şekilde öngördüğü üzere “para her zaman kazanır.” Ve her zamankinden çok daha fazla bugün yapay zekâ yetilerini ilerletebilmek için harcanıyor.

Son Hız İleri

Son dönemdeki yapay zekâ gelişmelerinin ilerletici gücü, birçoğu onlarca yıldır var olan eğilimlerin bir bütünü: algoritma etkinliğindeki önemli ilerlemelerin hali hazırda yükselttiği programlama gücünde ve yapay zekâ modellerinin eğitiminde kullanılan veri miktarında artış. 2010’dan beri, yapay zekâ modellerini eğitmekte kullanılan programlama miktarı yüz milyon kat arttı. Şu an tanık olduğumuz gelişmelerin çoğu aslında geçmişte çok daha küçük ve düşük bütçeli bir alanın çalışmalarının ürünü.

Ve her ne kadar yapay zekâ çılgınlığı geçtiğimiz yılı gereğinden fazla etki altına alsa da bu üç eğilimin birleşmesi niteliksel sonuçlar yarattı. Yapay zekâ sistemlerinin kritik ölçümlerde insan seviyesinde performans vermesi için gereken süre, geçtiğimiz on yılda önemli oranda kısaldı.

Yapay zekâ kapasitesindeki artışın duvara toslaması da imkân dahilinde. Araştırmacılar kullanacak daha fazla iyi veri bulamayabilir. Moore yasası -bir mikroçipte bulunan geçirgen sayısının iki yılda bir iki kat arttığı gözlemi- tarihe karışabilir. Siyasi olaylar üretim ve tedarik zincirlerini aksatabilir bu da programlama maliyetini artırabilir. Ayrıca sistemleri yükseltmek artık daha iyi performans vermeyebilir.

Fakat gerçek şu ki kimse var olan yaklaşımların gerçek sınırlarını bilmiyor. 2022 Ocak ayında yayınlanan Yann LeCun röportajından bir kesit Twitter’de yeniden gündem oldu. LeCun “Bir makineyi yalnızca metinler yardımıyla akıllı hale getiremem, dünya hakkında metinlere sığdırılan bilgiler, bilmemiz gerekene kıyasla çok küçük” diyor röportajda. Argümanını açıklamak için de bir örnek veriyor: “Bir nesneyi elime alıyorum, masaya koyuyorum, sonra da masayı itiyorum. O nesnenin de masayla birlikte itileceği gerçeği sizin için aşikâr.” Fakat “metin temelli bir modelle bir makineyi eğittiğinizde, sizin bu atıyorum GPT-5000’iniz ne kadar güçlü olursa olsun… bunu asla öğrenemeyecek”.

Fakat ChatGPT-3.5’a bu örneği sorduğunuzda size hemen doğru cevabı verecektir.

Kovulmasından dört gün önce verdiği bir röportajda Altman “[GPT-5] modelini eğitmeye başlamadıkça bu bizim için eğlenceli bir tahmin oyunu olarak kalacak. Daha iyi olmaya çalışıyoruz, çünkü bence güvenlik perspektifinden yeteneklerini tahmin edebilmek önemli. Ama şu an size açıkça GPT-4’ün yapamadığı neyi yapabildiğini söyleyemem”.

Tarih gelişimin hızıyla ilgili kötü tahminlerle dolu. New York Times’da yayınlanan bir başyazı, “uçabilen bir makine geliştirebilmenin” 1 ila 10 milyon yıl alacağını yazdıktan 69 gün sonra Wright kardeşler ilk uçuşunu yaptı. 1933 yılında “nükleer fiziğin babası” Ernest Rutherford büyük bir özgüvenle nötron kaynaklı zincirleme reaksiyonun imkânsız olduğunu söylemesi, Leo Szilard’a ilham oldu ve hemen sonraki gün, ileride atom bombasının yapımının temelini oluşturacak başarılı bir formül bulmasına sebep oldu.

Kaçamayacağımız bir sonuç şu ki, yakın zamanda yapay zekâ üretebilme konusunda başarılı olan insanlar yapay genel zekânın hem imkânlı hem de yakın olduğuna inanıyor. Önde gelen iki yapay zekâ laboratuvarı olan OpenAI ve DeepMind kuruluşlarından beri, yapay genel zekânın yakın zamanda üretilebileceğini söylediğiniz zaman herkesin size güleceği günlerden beri yapay genel zekâ için çalışıyorlar.

Harika Çalışanlar

Patronlar çoktandır işçileri gözetlemek, denetlemek ve sömürmek yapay zekâ kullanıyorlar. Fakat asıl hayalleri insanları tamamen süreçten çıkarabilmek. Marx “Makine artı değer üretmek için bir araçtır” dememiş miydi?

Açık Hayırseverlik (OP) yapay zekâ risk araştırmacısı Ajeya Cotra bana “azami verim sağlayabilen bir kapitalizm ya da Pazar ekonomisinin” insanları içermeyeceğini çünkü “insanların para kazanmak için çok verimsiz canlılar olduğunu” yazmıştı. Biz “ticari anlamda verimsiz” çok fazla duyguya değer veriyoruz, “bu yüzden de günün sonunda bundan keyif alacaksak ve ortaya çıkan sonucu beğeneceksek, bunun sebebi güçle kurduğumuz sistemleri insani değerlerle uyuşturabilmeyi başarmamız olacak” diye devam etmişti.

OP, Verimli Altrüistlerden ilham alınarak kurulmuş ve Facebook’un kurucularından Dustin Moskovitz’in finanse ettiği bir kuruluş. Yapay zekâ güvenliği kuruluşlarının önde gelen finansörü durumunda. OP, OpenAI’ye şirket 2019’da kâr odaklı bir hale gelmesinden 2 yıl önce yapay zekâ güvenliği çalışmaları için 30 milyon dolarlık bir finansman sağlamıştı. Geçmişte New York Focus’ta yayınlanan bir çalışmadan dolayı OP’nin finanse ettiği Verimli Altrüistlerden (EA) bir kereliğine hibe almıştım. İlk kez EA ile 2017’de tanıştıktan sonra, gelirimin yüzde 10-20’sini küresel sağlık ve endüstriyelleşme karşıtı tarım üzerine kâr amacı taşımayan kurumlara bağışlamaya başlamış, yerel ekip örgütleyicisi olarak gönüllü olmuş ve kendim de küresel bir STK’de çalışmıştım. EA yapay zekânın varoluşsal riskiyle ilgilenen ilk gruplardandı, fakat sorunun belli belirsizliğinden ve hâlihazırda süren sorunlardan ötürü yapay zekâ çalışanlara biraz ihtiyatlı yaklaşmıştım.

İtaatkâr bir yapay genel zekâ, kapitalistlerin ancak rüyalarında görebileceği bir işçi olurdu: yorulmayan, her daim motive ve tuvalet molalarına ihtiyacı olmayan bir işçi. Frederick Taylor’dan Jeff Bezos’a kadar patronlar, insanların üretim için tam olarak optimize olmamasından çok mutsuz. Taylor’un bilimsel yönetici olduğu günlerin bile öncesinde, endüstriyel kapitalizm, çalıştıkları makinelere benzeyen işçiler üretme ya da doğrudan o makinelerin işçilerin yerini alabileceği imkânlar arıyordu. Komünist Manifesto’nun öngörülü gözlemindeki gibi, kapitalistlerin makine kullanımının uzun vadeli sonucu işçiyi de “makinenin bir parçasına” dönüştürebilmekti.

Fakat yapay zekâ güvenliği topluluğuna göre ise yapay genel zekânın Bezos’un ağzının sularını akıtan insan dışı yetenekleri, aynı zamanda insanlar için ölümcül bir risk yaratıyor.

Patlama Noktası: Soy Tükenmesi Meselesi

En bilinen x-risk argümanı şu: Yapay zekâ sistemleri belli bir eşiğe ulaştığında, bir kereye mahsus olmayan bir biçimde kendi kendilerini geliştirmeye başlayarak bir “zekâ patlamasını” başlatacaklar. Eğer yeni bir yapay zekâ sistemi yeterince akıllı -ya da yükseltilmiş- hale gelirse, insanlığı kalıcı olarak güçsüz bırakabilme yetisine sahip olacaklar.

Ekim ayında yayınlanan “Yapay Zekâ Risklerini Yönetme” raporuna göre:

Yapay zekâ gelişiminin, insan seviyesinde yeteneklere ulaştığında yavaşlaması ya da durmasını gerektirecek hiçbir esaslı gerekçe yok. İnsanlara kıyasla, yapay zekâ sistemleri daha hızlı hareket edebilir, daha fazla bilgi edinebilir ve çok daha yüksek bir bant genişliğinde iletişim kurabilir. Ek olarak, muazzam programlama kaynakları kullanılarak daha da yükseltilebilirler ve milyonlarca sayıya çoğalabilirler.

Bu özellikler çoktan insanüstü yetenekler ortaya çıkardı: Büyük dil modelleri internetin çoğunu aylar içerisinde “okuyabiliyor” ve DeepMind’ın AlphaFold’u bir insan laboratuvarının yıllarını alan çalışmalarını birkaç günde gerçekleştirebiliyor.

“Nüfus” artışının yaratacağı zihinsel patlama fikrinin şık bir versiyonunu sunayım: Eğer yapay zekâ sistemleri araştırma ve geliştirmede insan bilimcilerle rekabet edebilirse, sistemler hızlıca çoğalarak inanılmaz sayıda yeni yüksek verimli işçilerin ekonomiye girmesine benzer bir durumu yaratacak. Başka bir şekilde anlatalım, eğer GPT-7 bir insan işçinin görevlerinin çoğunu yapabilirse ve bunun için eğitilmiş bir modelin bir günlük görevleri yalnızca birkaç dolar tutacaksa, modelin her örneği müthiş kâr yaratarak tüm sektörleri etkisi altına alır. Bu da kendisine harcanan enerjiden katbekat fazla değer üreten milyarlarca ve belki daha da fazla dijital çalışanın ortaya çıkacağı bir nüfus patlaması yaratır. Sutskever muhtemelen “dünyanın tüm yüzeyinin güneş panelleri ve veri merkezleriyle dolacağını” diye düşünüyor.

Dijital işçiler bizim yapay zekâ tasarımlarımla gelişip bir yerden sonra kendi imkânlarıyla “süper zekâ” sistemlerini yaratarak, Alan Turing’in 1951’deki öngörüsündeki gibi “bizim basit kapasitemizi geride bırakabilirler”. Ve bazı yapay zekâ güvenliği taraftarlarının tartıştığı gibi, bir yapay zekâ modelinin varoluşsal bir tehdit oluşturması için süper zekâya ulaşmasına gerek yok; yeterince kopyası olsa yeter. Kaynaklarımdan birçoğu büyük şirketleri süper zekâlara benzetiyor, her ikisinin de yapabildikleri kurucularının yeteneklerinin çok üstünde.

“O zaman fişini çekeriz” en genel karşı itiraz. Fakat bir defa yapay zekâ insanlığı tehdit edebilecek güce sahip olursa, muhtemelen var olan en değerli şeye dönüşür. New York borsası ya da Amazon internet servisinin “fişini çekmek” daha kolay hala gelebilir.

Tembel bir süper zekâ çok ciddi bir tehdit olmayabilir, hatta Allen Yapay Zekâ Enstitüsü CEO’su Oren Etzioni, karmaşıklık çalışan profesör Melanie Mitchell ve Yapay Zekâ Şimdi Enstitüsü yöneticisi Sarah Myers West. Hepsi de bana yapay zekâ sistemlerinin giderek daha özerk hale geleceğine dair ikna edici bir bulgu olmadığını söyledi. Anthropic’ten Dario Amodei de var olan sistemlerin endişe yaratacak seviyede bir iradeye sahip olmadığına katılıyor. Fakat, tamamen pasif ve yeterince güçlü bir sistem, kötü niyetli bir aktörün eline geçme ihtimali Bengio gibi insanları endişelendirmek için yeterli.

Dahası, akademisyenler ve sanayiciler, yapay zekâ modellerini daha da özerkleştirmek için çaba harcamaya devam ediyor. Kovulmasından günler önce Altman Financial Times’e “bu iradeleri giderek daha da güçlü yapacağız… ve yapabildikleri giderek daha fazla karmaşıklaştıracak… Her sektörde yapılabileceklerin yaratacağı ticari değer, bence çok iyi.”

Bu heyecanın arkasında ne var?

X-risk taraftarlarının geceleri rahat uyuyamamalarının sebebi gelişmiş yapay zekânın gözlerini açıp bir anda karanlık tarafa geçip, herkesi hasetle öldürmeye karar verme ihtimali değil, bir noktada bizi yapabilecekleri açısından bir engel olarak görmeye başlaması. Büyük Sorulara Kısa Yanıtlar isimli son kitabında Stephen Hawking bu ihtimali hesaplayarak şöyle diyordu “Muhtemelen karıncaların üzerine kötü niyetle basan, şeytani bir karınca karşıtı değilsin, fakat bir hidroelektrik yeşil enerji projesinin başındaysan ve sulandırılması gereken bir bölgede karınca yuvası varsa, bu karıncalar için çok korkunç bir sonuç yaratacaktır”.

Beklenmedik ve arzulanmayan davranışlar çok basit niyetlerin sonuçları olabilir, bu ister kâr olsun ister yapay zekânın ödüllendirme becerileri. “Serbest” bir piyasada, kâr arayışı tekelleşmeye, çok boyutlu pazarlama planlarına, havanın ve suyun zehirlenmesine ve sayısız birçok fazla zarara sebep oluyor.

Yapay zekâ sistemlerinin beklenmeyen ve istenmeyen davranış gösterdiği bir dolu örnek var. Bir listede belirlenmiş hataları gidermesi istenen bir program, bütün bir listeyi silmişti. Bir araştırmacı, bir yapay zekâ modelinin güvenlik testlerinde tanınmamak için “ölü taklidi” yaptığını keşfetmişti.

Yine de başkaları, bu kaygıların arkasında büyük teknoloji şirketleriyle ilişkili komplo teorileri arıyor. Yapay zekânın güncel sorunlarına odaklanan be bu teknolojinin dünyanın sonunu getireceği anlatısını sektörün pompaladığını iddia edenler de var, Yapay Zekâ Şimdi enstitüsünden Myers West “sözde varoluşsal riskle ilgili anlatı, sürecin tüm havasını söndürerek, şu an anlamlı hiçbir şey gerçekleştirilmediğini kanıtlamaya çalışıyorlar.” Enteresan şekilde, Yann LeCun ve Baidu yapay zekâ başmühendisi Andrew Ng de buna katılıyor gibi görünüyor.

Bu fikri x-risk taraftarlarıyla paylaştığımda, çoğu bir kafa karışıklığı ve öfkeyle yanıt verdi. OP’den Ajeya Cotra bu fikirlere yanıt olarak “Keşke soy tükenmesi tehlikesi daha az endüstriyle ilişkili bir kaygı olsaydı çünkü esasen, özünde bu tamamen endüstri karşıtı bir inanç… Eğer şirketler bizi öldürecek şeyler üretiyorsa, o zaman bu kötü bir şey ve yasalar tarafından kısıtlanmaları gerekiyor”.

GovAI’den Markus Anderljung, denetleyici bir yaklaşımın teknolojiyi kısıtlamasından korkmanın “sektörde çalışanlar için doğal bir reaksiyon” olduğunu, ancak kendisi politikaların endüstrinin en büyük oyuncularına zarar verebilecek politikaları tercih edeceğini söyledi.

Anlaşılır görülebilecek tek şüphe kaynağı Sam Altman’ın artık varoluşsal risk fikrini savunan insanlardan biri olması, ancak kendi şirketi, her amaca uygun yapay zekâ çalışmasına herkesten daha fazla katkı sundu.

Ek olarak, OpenAI daha fazla kâr, Altman daha fazla güç elde ettiği sırada, CEO kamuoyundaki tonunu değiştirdi. Ocak 2023 tarihli bir röportajında, yapay zekâ konusundaki kâbus senaryosunun ne olduğu sorulduğunda “Hepimizin karanlığa gömülmesi” diye cevap verdi. Fakat Mayıs ayında Kongre sorgusunda senatörler benzer bir soru sorduğunda, yeminli cevabında yok olma tehlikesinden bahsetmedi. Ve kovulmasından önceki son röportajında da Altmayn “Hakikaten hepimizin soyunun tükeneceğine inanmıyorum. Bence her şey çok güzel olacak. Bence mümkün dünyaların en iyisine doğru ilerliyoruz”.

Altman Mayıs ayında kongreden yapay zekâ endüstrisini denetlemesini istedi, ancak Kasım ayında yapılan bir tahkikat, OpenAI’nin üst kuruluşu denilebilecek Microsoft’un, AB’nin yasalaşmak üzere olan yapay zekâ kanunda, ChatGPT gibi “temel modellerin” düzenlenme dışı kalması için, başarısızlıkla sonuçlanan bir lobi faaliyeti yaptığı ortaya çıktı. Altman’ın kendisi de AB içerisinde bolca lobi faaliyetlerinde bulundu, hatta düzenlemelerin fazla külfetli hale gelmesi durumunda bölgeden çekilmekle tehdit etti (ve hemen geri bastı). Fakat bu çıkışından günler sonra San Francisco’da gerçekleşen bir CEO panelinde, Altman “şu anki modeller gayet iyi. Burada ağır düzenlemelere ihtiyacımız yok. Muhtemelen takip eden birkaç sürümde de ihtiyaç olmayacak” dedi.

Başkan Joe Biden’ın yakın zamanda yürürlüğe giren yapay zekâya dair “çok kapsamlı” kararnamesi de aynı görüşte gibi görünüyor: güvenlik testi bilgilerinin paylaşılmasını zorunlu tuttuğu model standartları, şu an üretilebilecek olanlardan çok daha büyük yapay zekâ modellerini kapsıyor. Myer West bu gibi “ölçü eşiklerini” büyük bir kurtarma hamlesi olarak görüyor. Anderljung konu hakkında bana yasal düzenlemelerin bir sistemin kapasitesine ve kullanımına göre boyutlandırma yapması gerektiğini ve “bugünün en yetenekli ve en sık kullanılan modellerinin düzenlenmesi gerektiğini” ancak “daha geliştirilmemiş sistemlere uygulanacak düzenlemeler çıkarmanın siyasi olarak daha kazançlı” olduğunu söyledi.

Inioluwa Deborah Raji eğer teknoloji devlerin “bir boyutta kötü adam olmak zorunda kalacaklarını biliyorlarsa… bunun mümkünse soyut ve uzun vadeli olmasını tercih edeceklerini” iddia etmişti. Bu bana bu dev şirketlerin kendi ürünlerinin gerçekten herkesi öldürme ihtimalinin yüksek olduğu fikrini yaymalarından daha akla yatkın geliyor.

‘Yapay zekâ şu an zarar veriyor’ ve ‘Yapay zekâ dünyanın sonunu getirebilir’ argümanlarının birbirini dışladığını düşünmüyorum. Yok oluş mektubunu imzalayan yedi yüze yakın insanın çoğu akademisyen. Yalnızca biri halka açık bir şirket yönetiyor: OP’nin finansörü ve aynı zamanda Asana’nın kurucusu ve CEO’su olan Moskovitz. Amazon, Apple, IBM ve önde gelen yapay zekâ yazılım firmalarında çalışan kimsenin imzası yok. Hiçbir Meta yöneticisinin de.

Eğer ki büyük teknoloji firmalarının başındakiler yok oluş anlatısını yaymak istiyorduysa o zaman neden isimlerini bu listeye eklemediler?

Neden “Kıyamet Makinesi” İcat Edilir?

Eğer yapay zekâ gerçekten dünyayı kurtarıyorsa, bunu yaratan kişi modern bir Julius Caesar edasıyla alkışlanmayı umuyordur. Eğer böyle bir şey gerçekleşmiyorsa da “insanın icat etmek zorunda kaldığı son buluşu” ilk kim üretirse tarihin kendisini unutacağından endişelenmek zorunda kalmayacaktır – tabii tarih bu buluşla birlikte aniden sonlanmazsa.

Connor Leahy böyle giderse, tarihinin sonunun yapay genel zekânın gelişini takip edeceğini düşünüyor. Muhtemelen uzun saçı ve dağınık sakallarıyla, üzerinde “Sonumuz yakın” yazan ilan levhaları giyerek gezmesi yakındır -fakat bu yine de Lordlar Kamarası ya da CNN tarafından görüşünün istendiği gerçeğini değiştirmiyor. Conjencture’in 28 yaşındaki CEO’su ve etkili bir açık kaynak kolektifi olan EleutherAI’nin kurucusu Leahy, bana yapay zekâ üretmekteki motivasyonun nereye vardığını şöyle söylemişti: “Demek sana milyarlarca dolarlar kazandıracak, seni dünyanın kralı yapacak ya da yaşayan herkesi öldürecek olan nihai kıyamet makinesini üretiyorsun? Aynen öyle, en erkeksi rüya bu. Kıyametin kralıyım hissi. Anlıyorum, tam olarak da silikon vadisi estetiğine uyuyor.”

Leahy ayrıca Bay Area’da ya da internetin belli köşelerinde yeterince vakit geçiren birinin şaşırmayacağı bazı şeyleri de aktardı:

Hesap sorulamaz, seçilmemiş tekno ütopyacı sermayedarlar ve teknolojistler gerçekten varlar, çoğu San Francisco’da yaşıyor ve sonsuza kadar yaşama şansları varsa senin, çocuklarının, torunlarının hayatlarını ve tüm insanlığın geleceğini riske etmeye hazırlar.

Mart ayında, MIT Technology Review Altman’ın tüm banka hesaplarını iki amacı finanse edebilmek için boşalttığını söyledi: “sınırsız enerji ve daha uzun ömür.”

Tüm bunlara dayanarak, kendileri dışında herkesi etkileyecek riskli ve zararlı ürünler üreten hesap sorulamaz tekno oligarşiye karşı galip gelebilmek için etik taraftarlarının güvenlik taraftarlarını ortak mücadelelerinde doğal bir müttefik olarak gördüğünü düşünüyorsunuzdur. Ve daha önce gördüğümüz gibi, çoğu güvenlik savunucuları yapay zekâ etikçilerine adım da attı. X-risk taraftarlarının açıktan yapay zekâ etiğine saldırması da nadirdir (tersi için bu söylenemese de). Fakat gerçek şu ki güvenlik taraftarlığını sindirebilmek bazen daha zor oluyor.

Yapay zekâ etikçileri, aynı savundukları insanlar gibi, bazen ötekileştirildiklerini ve asıl hegemonyadan uzaklaştırıldıklarını hissettiklerini, kaygılarını hakiki şekilde öncelik haline getirmek yerine kendi kıçlarını kurtarmak için kullanan teknoloji şirketleriyle zor bir mücadele verdiklerini aktarıyorlar. Geçtiğimiz yıllarda büyük teknoloji şirketlerinin yapay zekâ etiği ekiplerini dağıtmaları da bu hissiyatı güçlendiren bir gelişme oldu. Ve birçok örnekte bu şirketlerin motivasyonu etik kaygısıyla kamuoyuna düşen sızıntılara ve sendikal örgütlenmelere karşı misilleme yapmaktı.

Bu tabii ki bu şirketlerin etik yerine x-riskini önceledikleri anlamına gelmiyor. Larry Page ve önde gelen var oluş riski araştırmacısı Toby Ord’un da içinde bulunduğu Google DeepMind’in etik kurulu ilk toplantısını 2015’te gerçekleştirmişti, ve asla ikincisini gerçekleştiremediler. Google’de çalışan bir yapay zekâ araştırmacısı bana “uzun vadeli riskleri ofiste konuşmadıklarını” yazdı. “Google’ın teknoloji üretme ve bunu güvenli hale getirme motivasyonu asıl olarak saldırganlığa ve yasallığa dayanıyor.”

Yazılım mühendisi Timnit Gebru, 2020’de bir taslak makaleye dair anlaşmazlık sebebiyle atılana kadar Google’in etik yapay zekâ ekibini yönetiyordu – o taslağın son hali bugün makine öğrenmesi üzerine basılmış en ünlü makale sayılıyor. “Stokastik (olasılıksal) papağan” makalesinde Gebru ve diğer yazarlar büyük dil modellerinin çevreye zarar verdiğini, toplumsal önyargıları güçlendirdiğini ve istatistikleri “anlama dair herhangi bir atıfta bulunmadan”dili “rastgele” birleştirmek için kullandığını söylemişti.

Yapay zekâ güvenliği topluluğundan çok da hazzetmeyen Gebru, yapay zekâ araştırmacılarının ifşa, sızıntı durumlarında daha fazla güvenceye sahip olmalarını talep etmişti ki GovAI’nin raporundaki başlıca önerilerden biri de buydu. Gebru Google’dan atıldığından beri 2700’e yakın çalışan dayanışma mektubu imzaladı, ancak o dönem şirkette çalışan Geoff Hinton onlardan biri değildi. CNN’de neden ifşacı iş arkadaşına destek çıkmadığı sorulduğunda Hinton Gebru’nun yapay zekâya dönük eleştirilerinin “kendi endişelerinden farklı olduğunu” ve “bu şeylerin bizden giderek daha akıllı hale gelerek kontrolü ele almaları fikri kadar varoluşsal bir ciddiyette olmadığını” söyledi.

Raji bana güvenlik ve etik taraftarları arasındaki düşmanlığın ve mesafenin sebebinin “bir tarafın diğerine kıyasla çok daha fazla parası olduğunu” ve bu yüzden “kendi gündemlerini daha doğrudan biçimlerde öne çıkarabildiğini” söylemişti.

Bir hesaplamaya göre, yapay zekâ güvenliği girişimlerine ve kâr etmeyen kuruluşlarına akan para miktarı 2020’den 2022’ye kadar dörde katlanarak 144 milyon dolara ulaştı. Yapay zekâ etiği topluluğu açısından buna karşılık gelen miktarı hesaplamak ise çok zor. Fakat her iki kampa ait sivil toplum kuruluşları da sektöre dönük harcamayla kıyaslandığında önemsiz kalıyor. OpenSecrets, yalnızca 2023’ün ilk çeyreğinde ABD’de yapay zekâ lobiciliğine yaklaşık 94 milyon dolar harcandığını bildirdi. Lobby Control, teknoloji firmalarının bu yıl AB’de lobi çalışmalarına 113 milyon dolar harcandığını belirtti, biz bunları yazarken yapay zekâ sektörüne milyarlarca doların yatırıldığını da aklımızda tutmamız gerek.

İki grup arasındaki mesafeyi güç ve paradan daha fazla artıran şey ise trendler. Veri bilimcisi Cathy O’Neil’in yazdığı 2016 yılı Matematik İmha Silahları gibi geniş çevrelerin takdirini kazanan kitapların ve Buolamwini ile Gebru’nun yazdığı, 2018 tarihli “Toplumsal Cinsiyet Tonları” makalesindeki gibi algoritma önyargısına dair şok gelişmelerin ardından yapay zekâda etik perspektifi, kamuoyunun dikkatini ve desteğini kazandı.

2014 yılında, yapay zekâda x-risk mücadelesi içinden çıkan çok satanı, felsefeci Nick Bostrom’un insan ötesi yapay zekânın yok oluşa yol açacağını iddia ettiği, Bill Gates ve Elon Musk gibi isimlerin övgüsüne mazhar olan Süper Zekâ kitabı oldu. Fakat Yudkowsky bana ChatGPT öncesinde, kimi Silikon Vadisi çevreleri dışında kitaptaki fikirleri ciddiyetle savunmanın alay konusu olduğunu söyledi. Yudkowsky gibi erken dönem yapay zekâ güvenliği savunucularının Bay Area zenginlerine yakınlıkları sebebiyle varlıklı çevrelerle yakın ilişkileri olsa bile genel kamuoyunda ötekileştiriliyorlardı.

ChatGPT sonrası dünyada, Turing ve Nobel ödüllü isimler, en bilinen eseri 660 bin kelimelik bir Harry Potter hayran kurgusu olan Yudkowsky’nin popülerleştirdiği fikirleri savunacak cesareti bulabildi.

Muhtemelen bu yeni dünyanın en şok edici işareti Kasım ayında yayınlanan Hard Fork isimli bir New York Times teknoloji podcastinde Federal Ticaret Komisyonu başkanına “Senin kıyametin ne Lina Khan? Yapay zekânın hepimizi öldürme ihtimalini yüzde kaç görüyorsun” sorusunun yöneltilmesi oldu. Bu havadan sudan konuşulan yayın bir anda ana akım gündeme oturdu (Khan iyimser olduğunu, bu yüzden bu ihtimali düşük, yüzde 15 civarında gördüğünü söyledi).

Tüm açık mektuplara ve medyatik tartışmalara bakıp yapay zekâ araştırmacılarının çoğunun varoluşsal riske karşı örgütlendiğini söylemek kolay olurdu. Fakat Bengio’ya x-riskin bugünün makine öğrenme topluluğunda nasıl karşılandığını sorduğumda “Çok değişti. Eskiden belki buradakilerin yüzde 0,1’i bu soruna ilgi duyuyordu. Şu an yüzde 5’idir” dedi.

İhtimaller

X-Risk konusunda endişe taşıyan birçokları gibi zihin felsefecisi David Chalmers da bir konuşmamızda olasılıksal bir argüman sundu: “Bu insan seviyesinde yapay zekâya sahip olacağımıza yüzde yüz emin olduğumuzda endişelenmemiz gereken bir sorun değil. Eğer ihtimal yüzde beş olmuşsa kaygılanmamız gerekiyor.”

Bu türden istatistiki düşünme verimli altrüistik topluluğundan çok yaygın ve birçoğunun en başta yapay zekâyla ilgilenme sebebi. Eğer uzman yorumlarını dikkate alacaksanız, kafanızın çok daha fazla karışması mümkün. Fakat eldeki araştırmalara bakarak uzmanların kaygı seviyelerinin bir ortalamasını alacaksanız, yüzde bir iki ihtimalle yapay zekâ sebepli yok oluşun gerçekleşeceği sonucuna varabilirsiniz ki bu da bu sorunu dünyanın en önemli meselesi haline getirmeye yeter. Ve eğer gelecek nesillere en ufak bir kıymet veriyorsanız, insan soyunun tükenmesi kategorik olarak sağ çıkabileceğimiz felaketlerin hepsinden daha kötü.

Fakat yapay zekâ tartışmasında cehalet iddiaları ile dolu. Melanie Mitchell ve Oren Etzioni gibi şüpheciler bana x-riske dair kanıt olmadığını söylerken, Bengio ve Leahy gibi destekçileri ise beklenmedik kapasite kazanımlarını işaret ederek şunu soruyor: Ya ilerleme durmazsa? Yapay zekâ araştırmacısı bir akademisyen arkadaşım yapay genel zekânın gelişini küresel ekonomi ve siyaseti bir miksere sokmaya benzetiyor.

Yine de bir sebepten ötürü yapay genel zekâ insan aklına yetişemeyip daha ötesine geçemese bile dünyayı neredeyse gelişigüzel şekilde sonsuz sayıda insan seviyesinde dijital aktörlerle paylaşma fikri yeterince korkutucu, özellikle de muhtemelen para kazanmaya çalışacaklarını düşündüğümüzde.

Yapay zekânın varoluşsal riskini azaltmaya yönelik gereğinden fazla politika önerisi var ki burada anlamlı şekilde tartışabilmek mümkün değil. Fakat yapay zekâ güvenliği grubunun en net ifadelerinden biri “yavaşlamamız gerektiği”. Böyle bir yavaşlamayı savunanlar, bunun politika yapıcılara ve en geniş anlamda topluma hem yetişme şansı hem de dönüştürücü potansiyelleri olan bir teknolojinin nasıl geliştirilmesi ve yürürlüğe sokulması konusunda aktif şekilde karar sahibi olabilme şansı vereceğini düşünüyor.

Uluslararası İş Birliği

Yapay zekâyı denetleme ve düzenlemeye dönük çabalara karşı en yüksek sesli itiraz hep “Ama Çin!” oluyor. Örneğin Altman Mayıs ayında senato komitesinde “Biz Amerika’nın önderlik etmesini istiyoruz” dedi ve yavaşlama riskinin “Çin veya bir başkasının daha hızlı ilerlemesine” neden olacağını anlattı.

Anderljung bana bunun “Yapay zekâyı denetlememek için yeterince güçlü bir sebep olmadığını” yazdı.

Haziran ayında yayınlanan Foreign Affairs makalesinde Helen Toner ve iki siyasi bilimci konuştukları Çinli yapay zekâ araştırmacılarının Çin’in büyük dil modellerinin Amerika’nın en gelişmiş modellerinden en az iki üç yıl geride olduğunu düşündüklerini yazdı. Dahası, yazarlar Çin’deki yapay zekâ gelişiminin “büyük ölçüde diğer ülkelerde yayınlanan araştırmalarından yeniden üretilmesi ve kesip biçilmesine dayandığını” dolayısıyla tek taraflı bir yavaşlamanın bile Çin’deki ilerlemeyi de “muhtemelen yavaşlatacağını” iddia etti. iddia etti. Ayrıca Anthropic politika şefi Jack Clark’ın gözlemlediği üzere Çin yapay zekâyı anlamlı şekilde denetleme konusunda dünyanın tüm büyük ülkelerinden daha hızlı davrandı.

Yıdkowsky, “İnsanlığın geri kalanıyla birlikte intihara kalkışma fikri Çin’in ilgisini çekmiyor” diyor.

Eğer gelişmiş yapay zekâ tüm dünyayı tehdit ederse, iç politikayla sınırlı bir düzenleme de yetmeyecektir. Ancak ulusal çapta kararlı ve güçlü sınırlamalar, diğer ülkelere de bu riski ne kadar ciddiye almaları gerektiğini gösterecektir. Önde gelen yapay zekâ etikçilerinden Rumman Chowdhury küresel bir denetim çağrısı yaptı. Bengio her ikisini de yapmalıyız diyor.

Yudkowsky, şaşırtıcı olmayan bir biçimde radikal bir pozisyon benimseyerek bana “doğru gidişat tüm yapay zekâ yazılımlarını, orduların, hükümetlerin, Çin ya da ABD’nin süper zeki yapay zekâlar gibi hiçbir kötücül eylemde bulunamayacağı denk anlaşmaların güvence altına aldığı bir uluslararası denetim altında sınırlı sayıda veri merkezlerine aktarılmalı” dedi.

Mart ayında Time’de yayınlanan ve tartışma yaratan makalesinde Yudkowsky, uluslararası bir moratoryum kurularak yeni nesil büyük geliştirme çalışmalarının tamamen kapatılmasının, gerekirse caydırıcı bir önlem olarak askeri tedbirlerin alınması gerektiğini iddia etti. Yudkowsky’nin gelişmiş yapay zekânın nükleer veya biyolojik silahtan daha tehlikeli olacağına dair inancından dolayı bu kadar radikal bir tutum alması şaşırtıcı değil.

Son yapay zekâ zirvesine katılan, aralarında ABD ve Çin’in de bulunduğu 28 ülke, yapay zekânın şimdiye kadar ortaya çıkmış zararlarını ve “maksatlı şekilde kötüye kullanma ya da insan amacına uyuma bağlı kasti olmayan kontrol sorunlar ihtimalini” kabul eden Bletchley Deklarasyonunu imzaladı.

Zirveye ev sahipliği yapan Britanya hükümeti, Bengio’yu öncü yapay zekâların yetenekleri ve risklerine dair hazırlanacak ilk “Bilim Durumu” raporunun yürütücülüğünü yapmakla görevlendirerek, Hükümetler Arası İklim Değişikliği Paneli örneğindeki gibi kalıcı bir uzman kurulu kurmaya dönük önemli bir adım attı.

ABD ve Çin’in iş birliği de yapay zekâya dair anlamlı bir uluslararası koordinasyon açısından zorunlu bir adım. Ve konu yapay zekâ olduğunda bu iki ülkenin arasındaki ilişkiler çok da iyi değil. 2022 CHIPS yasasının ihracat kontrollerinde, ABD’nin Çin’in yapay zekâ kapasitesini sabote etmeye çalıştığı ortaya çıktı ki bu bir sektör analistinin geçmişte “savaş ilanı” olarak yorumlayacağı bir hamle. Jacobin’in Mayıs’ta yayınladığı bir habere göre, muhtemelen x-risk taraftarı politika araştırmacıları bu külfetli denetlemelerin geçirilmesinde rol oynadı. Ekim ayında, ABD CHIPS yasası kısıtlamalarını daha da sıkıştırarak hiçbir açık kapı bırakmadı.

Fakat, umut verici bir işaret olarak Kasım ayında Biden ve Xi Jinping’in yapay zekâ güvenliğini ve ölümcül silah sistemlerinde yapay zekâ kullanımının yasaklanmasını tartıştı. Beyaz Saray’dan yapılan bir basın açıklamasında “İki ülke liderleri ilerlemiş yapay zekâ sistemlerinin yarattığı riskleri kabul ederek, ABD-Çin diyalogu içerisinde yapay zekâ güvenliğini geliştirmeyi konuştu”.

Ölümcül otonom silahlar, yapay zekâ tartışmaları içerisinde görece herkesin aynı tarafta olduğu bir konu. Yapay zekânın maskesini düşürmek: Görevim Makineler Dünyasında İnsana Dair Her Şeyi Korumak kitabında Joy Buolamwini, birçok yapay zekâ güvenliği savunucusunun uzun yıllardır seslendirdiği Katil Robotları Durdurun kampanyasını savunuyor. Bir x-risk organizasyonu olan Yaşamın Geleceği Enstitüsü, 2016’da ideolojik olarak birbirinin zıttı kutuplarda olan birçok popüler ismin imza attığı bir açık mektupla bu ölümcül otonom silahların saldırı amaçlı kullanımının yasaklanması için çağrıda bulundu. Bu çağrıya Bengio, Hinton, Sutton, Etzioni, LeCun, Musk, Hawking ve Noam Chomsky imza attı.

Masada Bir Koltuk

Yıllarca hiçbir icraatta bulunmayan dünyanın önde gelen hükümetleri sonunda dikkatlerini yapay zekâya çevirdi. Fakat geleceğin sistemlerinin yapabileceklerine kafa yormayan sosyalistler, bu masadaki yerlerini terk ediyorlar.

Bunun çok da önemsiz olmayan bir sebebi yapay zekâyla ilgilenen insanlar; varoluşsal risk fikrinin ilk savunucularının çoğu ya kendilerini gelişmiş yapay zekânın nasıl kontrol edilebileceğine dair aşırı teorik araştırmalara kaptırmış durumda ya da bizzat kendileri yapay zekâ şirketleri kurmuş. Fakat böyle olmayan bir insan, yapay zekânın dünyayı yok edeceğine inanıyorsa yapay zekânın geliştirilmesini durdurmaya çabalamak gerektiğini düşünür.

Yapay zekâ fanatikleri, teknolojinin gelişiminin kaçınılmaz olduğunu – ve yeterince insan inanırsa gerçekleşeceğini düşünüyor. Fakat Yapay Zekâ Şimdi Enstitüsü “Yapay zekâyla ilgili hiçbir şey kaçınılmaz değil” diye yazdı. Enstitünün yönetici direktörü Myers West bu sözü tekrarlayarak, yüz tanıma teknolojisinin de 2018’de kaçınılmaz gözüktüğünü ama o zamandan beri birçok yerde yasaklandığını hatırlattı. Ve x-risk araştırmacısı Katja Grace’in belirttiği gibi, bir teknolojiyi üretebilecek imkanlara sahip olmamız, onu üretme ihtiyacı hissetmemiz gerektiği anlamına gelmiyor.

Ek olarak, birçok yasa yapıcı güncel yapay zekâ gelişmelerine baktığında çıldırıyor. Senatör Mitt Romney, yapay zekâ konusunda iyimser olmaktan çok dehşete düşmüş durumda ve mevkidaşı Chris Murphy de “İnsanlara özgü birçok işlevi yapay zekânın yerine getirebilmesinin sonuçları felaket olabilir” dedi. Kongre üyeleri Ted Lieu ve Mike Johnson da yapay zekâdan gerçek anlamda tedirgin olanlardan. Eğer yapay zekâ yetilerinin hızla geliştiği ve soy devamı seviyesinde bir tehdit haline geldiği konusunda bizi aydınlatabilecek olanlar yalnızca belli başlı teknoloji devleriyse, yasa yapıcıların büyük oranda dikkat kesileceği insanlar da onlar olacaktır. Mayıs ayında profesör ve yapay zekâ etikçisi Kristian Lum X platformunda “Büyük dil modellerinin kesin olarak bir varoluşsal risk yarattığına emin olabildiysem o da Etik yapay zekâ grubu sayesinde. Yanıltıcı anlatıyla daha fazla mücadele etmeliyiz” diye yazdı.

Yapay zekâ sebepli bir yok oluş size bir bilim kurgudan bile uçuk gibi geliyorsa, dönüştürücü bir teknolojinin nasıl geliştirileceği ve hangi değerleri temsil edeceğini büyük oranda etkileyebilecek sayısız faktör var. Örneğin hipotetik bir yapay genel zekâya istediğimiz şeyi yaptırabilme ihtimalimiz bile insanlığın önündeki belki de en önemli soruyu doğuracaktır: Ne isteyeceğini istemeliyiz?

Chalmers’e bu soruyu yönelttiğimde bana “Bir noktada siyaset felsefesinin tüm sorularını yeniden değerlendirmeliyiz: Biz nasıl bir toplum istiyoruz, nasıl bir toplumu değerli buluyoruz?” diye yanıt verdi.

İnsan seviyesinde bir yapay zekânın ortaya çıkışını, yeni bir ülkenin anayasasını yapmak gibi de düşünebiliriz (Anthropic’in Anayasal Yapay Zekâsı bu fikri kelimenin tam anlamıyla ciddiye alıyor ve şirket yakın zamanda modelin kurucu dosyasıyla demokratik çıktıları birleştirmeyi denedi). Hükümetler çok fazla gücü elinde tutan karmaşık sistemlerdir. İnşa edildikleri temel değerler bugün ve gelecekte milyonlarca insanın hayatını belirleyebilir. Amerikalılar kamudan çok korkan ölü adamların boyunduruğunda yaşıyorlar, aradan geçen iki yüz yıl sonra bile siyasal mekanizmalarımızı zehirlemeye devam eden anti demokratik önlemler yaratan adamların.

Yapay zekâ geçmişteki tüm yeniliklerden daha devrimci olabilir. Ayrıca tercihlerimizi yansıtabilmesi mantığı ile kurulduğu için de emsalsiz kuralcı bir teknoloji. Jack Clark’ın geçenlerde Vox’ta ifade ettiği gibi “Bunun bir hükümet icraatı olmaması çok garip”. Chalmers bana “Teknoloji şirketleri bu amaçları gerçekleştirebilecek yapay zekâ sistemleri yapmaya başladığında, bu şirketlerin çok derin toplumsal ve siyasal sorulara dair doğru yanıtları olacağına güvenmemiz gerekiyor. Ben güvenebileceğimi düşünmüyorum. Yalnızca tekniğe dair şeyleri yansıtmaktan bahsetmiyoruz, toplumsal, siyasal bir yansıtmadan bahsediyoruz”.

Yanlış Tercihler

Süper akıllı teknolojilerin insanlığı önemsemediğini anlamak için beklememize gerek yok. İnsan üstü varlıklar ödüllendirilecekleri başarıya ulaşabilmek için insafsızca, gerekirse değer verdiğimiz her şeyi feda etme pahasına en optimum hale gelmeye çalışırlar. Bu varlık daha fazla yeteneğe sahip oldukça optimizasyonu daha da umarsız hale gelir, sonuçları da daha yıkıcı olur.

Tanıdık geldi mi? Öyleyse, yalnız değilsiniz. Yapay Zekâya İtirazlar Enstitüsü (AOI) hem kapitalizmi hem de yapay zekâyı uyum sağlayamamış iyileştiriciler olarak görüyor. Eski devlet radyosu spikeri Brittney Gallagher ve “özelleştirme kahramanı” Peter Eckersley tarafından kurulan araştırma laboratuvarı, yok olma ve ütopya arasındaki mesafeyi inceliyor: “Bugünden keskin bir kopuş değil, gücün birkaç kişinin elinde birikmesini amaçlayan mevcut eğilimlerin ileri seviyede bir yapay zekâyla güçlendirilmesi.” AOI başkanı Değer Turan bana “yok oluş riski, bir riskin karşısında koordinasyon başarısızlığıdır. Yapay zekâ güvenliği ve etiği arasında köprüler kurmalıyız” diyor.

X-risk çevrelerinde en çok konuşulan fikirlerden biri, yalnız bir aktörün içinde bulunduğu gruba dair her şeyi mahvettiği durumları anlatmak için kullanılan tek yanlının laneti. Örneğin, bir grup biyolog, bir hastalığı daha ölümcül hale getirmenin yolunu bulduysa, bunu aralarından biri yayınlayabilir. Son birkaç on yılda, birçok insan yapay zekânın insanlığı yok edebileceğine ikna oldu, ancak aralarındaki en hırslılar, risk toleransı en yüksek olanlar, öncü yapay zekâ kapasiteleri geliştiriyorlar ya da Sam Altman’ın geçenlerde söylediği gibi “cehalet perdesini yeniden örtüyorlar”. OpenAI CEO’sunun üstü kapalı olarak ima ettiği gibi, teknolojik sınırın ötesinde ne olduğunu gerçekten bilebilme şansımız yok.

Kimilerimiz riskleri tam olarak kavrayabiliyor ancak umursamadan yoluna devam edebiliyor. Önde gelen bilim insanları sayesinde, ExxonMobil 1977’de ürünlerinin küresel ısınmaya sebep olduğunu keşfetmişti. Sonra da kamuoyundan gerçeği saklayarak, petrol rafinerilerini yükseltmeye devam ettiler.

Yanan karbonun atmosferi ısıtabileceği fikri ilk olarak 19. yüzyıl sonlarında bulundu, ancak iklim değişikliğine dair bilimsel fikir birliği ancak yüz yıl sonra gerçekleşti. Makinelere geri döndürülemez biçimde kontrolü kaptırmamız fikri dijital programlamadan eski, fakat bilimsel boyutta buna dair bir fikir birliği şu an çok uzak. Ve son dönemdeki yapay zekâ gelişmeleri bu hızla ilerlemeye devam ederse, fikir birliğine varıp anlamlı bir pratiğe dökebilmek için bekleyecek on yıllarımız olmayabilir.

Kamuoyunda dönen tartışmadan ötürü, yapay zekânın bugün yarattığı sorunlarla mı yoksa tabiatı gereği spekülatif olan yok oluş riski konusunda mı mücadele edilmesi gerekliliği gibi bir ikilem, taraf seçme mecburiyeti olduğunu düşünebilirsiniz. Ve bu konuda incelikle düşünülerek verilmesi gereken ödünler olduğu doğru.

Fakat maddi güçlerin nasıl ilerlediğine bakarsanız, başka bir tabloyla karşılaşırsınız: bir tarafta yapay zekâ modellerini daha gelişkin ve kârlı hale getirmeye çalışan trilyon dolarlık şirketler, diğer tarafta ise bu teknolojinin kâr maksimizasyonu ile çelişkileri olan değerleri yansıtması için çabalayan sivil toplum kuruluşları olduğunu görürsünüz.

Özetle, mücadele kapitalizm ve insanlık arasında.

Kitap Tanıtımı

VANALAR VE TESİSAT ARMATÜRLERİEL KİTABI CİLT -II

Odamız, bilimi ve tekniği toplum yararına sunmayı temel alan bir anlayış içerisinde yürüttüğü yayın faaliyetlerine büyük önem vermekte olup, uzmanlık alanımıza giren konularda üyelerimizin ve ilgili teknik personelin bilgi birikiminin arttırılması ve gelişen teknolojiden yararlanması için çalışmalarını sürdürmektedir.Üyelerin meslek alanlarındaki gereksinim ve taleplerini dikkate alarak gelişen tesisat uygulamalarında eğitim gereksiniminin karşılanmasını sürekli gündeminde tutan Odamız, […]

Sunuş (Sayı:6)

TMMOB Makina Mühendisleri Odası’nın üç ayda bir çıkan yeni periyodik yayını Sanayi ve Toplum’un altıncı sayısı bugün yayımlandı.  Bu sayıda, 31 Mart seçim sonuçlarının değerlendirilmesi, seçimler sonrası emeği bekleyen süreç, küresel hegemonya mücadelesinin farklı boyutları, modern paranın oluşum süreci ve yapay zekâ konularına yer veriliyor. Editör Anıl Aba’nın sunuş yazısı ile başlayan bu sayıda ilk olarak 31 Mart Yerel Yönetim […]

ROBERT BRENNER’İN KÂRSIZ KÜRESEL DURAKLAMA TEORİSİ

Son 25 yıldır UCLA ekonomi tarihçisi ve New Left Review yazarı Robert Brenner, gitgide daha çok ilgi çeken “uzun gerileme” teorisini geliştirdi –savaş sonrası canlılığının ardından 1973 yılında başlayan ekonomik yavaşlama. Brenner’e göre, son yarım yüzyılda dünya küresel aşırı imalat sebebiyle uzun zamandır süren kârlılık krizinin ağırlığıyla durağanlaştı –ilk olarak Alman ve Japon firmalarının savaş […]

Künye
TMMOB
Makina Mühendisleri Odası
Bülteni ekidir.
Üç Ayda bir elektronik ortamda yayınlanır.
YAYIN TARİHİ
Kasım 2024
Cilt: 65 Sayı: 778
MMO ADINA SAHİBİ
Yunus Yener
SORUMLU YAZI İŞLERİ MÜDÜRÜ
Yunus Yener
YÖNETİM YERİ
Meşrutiyet Cad. No: 19/6 06650 Kızılay Ankara
Tel: +90 312 425 21 41
Fax: +90 312 417 86 21
E-posta: mmo@mmo.org.tr
Web: www.mmo.org.tr
Bu web sitesi çerez kullanmaktadır
Sitemizin çalışması için gerekli olan çerezleri kullanıyoruz. Siteyi kullanmaya devam ederek bunları kabul etmiş olursunuz.
Bizi Takip Edin
MMO
TMMOB