Teknoloji milyarderleri, Yapay Zeka kousunda insanlığın geleceğiyle riskli bir bahis oynuyor.

Altman, Bezos ve Musk, süper zeki yapay zeka yaratarak insanlığı kurtarmak istediklerini söylüyorlar. Gazeteci ve astrofizikçi Adam Becker, bu fantastik vizyonların daha karanlık bir gündemi nasıl gizlediğini ortaya koyuyor.

Bryan Gardiner / 13 Haziran 2025

 

Ünlü bilgisayar bilimcisi Alan Kay bir keresinde “Geleceği tahmin etmenin en iyi yolu onu icat etmektir” demişti. İlhamdan çok öfkeyle söylenen bu söz, yine de Silikon Vadisi girişimcileri arasında, özellikle de kendilerini insanlığın geleceğinin baş mimarları olarak gören bir avuç teknoloji milyarderi arasında müjde benzeri bir statüye ulaşmıştır.

Sam Altman, Jeff Bezos, Elon Musk ve diğerleri yakın vadede biraz farklı hedeflere ve tutkulara sahip olabilir, ancak önümüzdeki on yıl ve sonrası için büyük vizyonları dikkat çekici derecede benzerdir. Teknolojik hedefler olarak değil, varoluşsal zorunluluklar olarak çerçevelenen bu hedefler arasında yapay zekayı insanlığın çıkarlarıyla uyumlu hale getirmek; dünyanın en acil sorunlarını çözecek yapay bir süper zeka yaratmak; ölümsüzlüğe (veya buna yakın bir şeye) ulaşmak için bu süper zekayla birleşmek; Mars’ta kalıcı, kendi kendini idame ettiren bir koloni kurmak; ve nihayetinde kozmosa yayılmak yer alıyor.

Bilim yazarı ve astrofizikçi Adam Becker, bu vizyonları destekleyen dağınık bir fikir ve felsefe karmaşası olsa da, üç özelliğin merkezi bir rol oynadığını söylüyor: Teknolojinin her sorunu çözebileceğine dair sarsılmaz bir kesinlik, sürekli büyümenin gerekliliğine inanç ve fiziksel ve biyolojik sınırlarımızı aşma konusunda yarı-dinsel bir saplantı. Zamanında yeni kitabı More Everything Forever: AI Overlords, Space Empires, and Silicon Valley’s Crusade to Control the Fate of Humanity’de Becker , bu inanç üçlüsünü “teknolojik kurtuluş ideolojisi” olarak adlandırıyor ve teknoloji devlerinin bunu insanlığı tehlikeli bir yöne yönlendirmek için kullandığı konusunda uyarıyor.

 

“Bu izmlerin çoğunda kaçış ve aşkınlık fikrinin yanı sıra, hayal edilemez harikalarla dolu muhteşem bir geleceğin vaadini de bulacaksınız; tabii ki teknolojik ilerlemenin önüne geçmediğimiz sürece.”

“Teknoloji milyarderlerinin bu belirli bilimkurgu geleceklerine verdikleri güven, daha fazlasının peşinde olmalarını doğruluyor ; işletmelerinin büyümesini ahlaki bir zorunluluk olarak tasvir etmek, dünyanın karmaşık sorunlarını basit teknoloji sorularına indirgemek [ve] yapmak isteyebilecekleri hemen hemen her eylemi haklı çıkarmak,” diye yazıyor. Becker, bu vizyonlardan kurtulmanın tek yolunun onları oldukları gibi görmek olduğunu savunuyor: çevreyi yok etmeye devam etmek, düzenlemeleri atlatmak, daha fazla güç ve kontrol toplamak ve bugünün gerçek sorunlarını göz ardı edip yarının hayal edilen sorunlarına odaklanmak için kullanışlı bir bahane.

 

Yıllar boyunca birçok eleştirmen, akademisyen ve gazeteci Silikon Vadisi ahlakını tanımlamaya veya özümsemeye çalıştı. 90’ların ortalarında “Kaliforniya İdeolojisi “, 2000’lerin başında “Hızlı hareket et ve şeyleri kır” dönemi ve daha yakın zamanda ” Benim için Liberteryenizm, senin için feodalizm ”   veya ” tekno-otoriter ” görüşler vardı. “Teknolojik kurtuluş ideolojisi”nin nasıl uyduğunu düşünüyorsunuz? 

 

Bunun, Silikon Vadisi zihniyetini tanımlamaya yönelik daha önceki girişimlerle büyük ölçüde örtüştüğünü söyleyebilirim. Yani, 90’larda Max More’un transhümanizm ilkelerinden Kaliforniya İdeolojisi’ne [karşı-kültürel, liberteryen ve neoliberal değerlerin bir karışımı] ve benim teknolojik kurtuluş ideolojisi dediğim şeye kadar oldukça düz bir çizgi çizebilirsiniz. Gerçek şu ki, Silikon Vadisi düşüncesini tanımlayan veya canlandıran fikirlerin çoğu hiçbir zaman büyük bir gizem olmamıştır: liberteryenlik, hükümete ve düzenlemelere karşı bir antipati, teknolojiye olan sınırsız inanç, optimizasyon takıntısı.

Zor olabilecek şey, tüm bu fikirlerin nereden geldiğini ve nasıl bir araya geldiklerini -ya da hiç birbirlerine uyup uymadıklarını- çözümlemektir. Teknolojik kurtuluş ideolojisini, ilk bakışta dağınık ve iyi tanımlanmamış görünebilen, ancak aslında teknoloji sektöründeki girişim sermayedarları, yöneticiler ve diğer düşünce liderleri tarafından paylaşılan bir dünya görüşünün merkezinde yer alan, birbiriyle ilişkili bir grup kavram ve felsefeyi adlandırmanın ve şekillendirmenin bir yolu olarak buldum.

Okuyucular muhtemelen kitabınızda yer alan teknoloji milyarderlerine ve en azından bazı hırslarına aşina olacaktır. Düşüncelerini etkilediğini veya yönlendirdiğini iddia ettiğiniz çeşitli “izm”lere daha az aşina olacaklarını tahmin ediyorum. Etkili fedakarlık , rasyonalizm, uzun vadelicilik, ekstropianizm, etkili ivmecilik, fütürizm, tekilcilik, transhümanizm —bunlardan birçoğu var. Hepsinin paylaştığı bir şey var mı? 

 

Kesinlikle bağlantılılar. Bir anlamda, hepsinin teknolojik kurtuluş ideolojisinin versiyonları veya örnekleri olduğunu söyleyebilirsiniz, ancak bu gruplardaki insanlar ile amaçları ve inançları arasında çok derin tarihi bağlantılar da vardır. 80’lerin sonlarında Extropianlar, teknoloji ve her türlü sınırlamadan özgürleşme yoluyla kendini dönüştürmeye inanıyorlardı; Ray Kurzweil’in sonunda Tekillik ile daha geniş bir kitle için popülerleştirmesine ve meşrulaştırmasına yardımcı olduğu fikirler .

Bu izmlerin çoğunda kaçış ve aşkınlık fikrinin yanı sıra, hayal edilemez harikalarla dolu muhteşem bir geleceğin vaadini bulacaksınız; tabi ki teknolojik ilerlemenin önüne geçmediğimiz sürece. Yapay zeka araştırmacısı Timnit Gebru ve filozof Émile Torres’in de bu ideolojileri birbirine bağlamak ve hepsinin ırkçılık, kadın düşmanlığı ve öjeni ile nasıl bağları olduğunu göstermek için çok iyi işler çıkardıklarını söylemeliyim.

Tekilliğin teknolojik kurtuluş ideolojisinin en saf ifadesi olduğunu savunuyorsunuz. Nasıl yani?

 

Şey, bir kere, bu çok basit, doğrudan bir fikirdir – Tekillik geliyor ve beyinlerimizi bulutla birleştirdiğimizde ve zekamızı milyon kat genişlettiğimizde gerçekleşecek. Bu daha sonra farkındalığımızı ve bilincimizi derinleştirecek ve her şey muhteşem olacak . Birçok yönden, bu mükemmel bir teknolojik ütopyanın fantastik bir vizyonu. Hepimiz sonsuz bir cennette, sevgi dolu zarafetin makineleri tarafından izlenerek istediğimiz kadar yaşayacağız ve her şey sonsuza dek katlanarak daha iyi olacak.

DOGE hükümet teknolojisi için kural kitabını çöpe atarken, en kötüsüne hazırlıklı olmamızın ve cesaret ve destek için birbirimizden destek almamızın zamanı geldi.

Kitapta bahsettiğim diğer izm’ler biraz daha fazla… ağırlık doğru kelime değil—sadece daha fazla şey oluyor. Onlarda daha fazlası var, değil mi? Rasyonalistler, etkili fedakarlar ve uzun vadeliler—onlar bir tekillik gibi bir şeyin gerçekleşeceğini veya gerçekleşebileceğini düşünüyorlar, ancak şu an bulunduğumuz yer ile o potansiyel olay arasında gerçekten büyük bir tehlike olduğunu düşünüyorlar. Herhangi bir tekillik gerçekleşmeden önce, her şeye gücü yeten bir yapay zekanın insanlığı yok edebileceği gerçeğini—sözde hizalama sorununu—ele almalıyız.

Sonra, daha çok Kurzweil’e benzeyen, ancak olaylara daha çok teknoloji-kardeş bakış açısıyla yaklaşan etkili hızlandırmacılar var. Tekillik’ten bazı eski transhümanist fikirleri aldılar ve bunları girişimcilik kültürüne göre güncellediler. Marc Andreessen’in ” Tekno-Optimist Manifestosu ” [2023’ten] iyi bir örnektir. Silikon Vadisi’nde kabul gören tüm bu diğer felsefelerin, Kurzweil’in Tekilliği’nin sadece farklı versiyonları olduğunu, her birinin aşkınlık, tekno-optimizm ve üstel büyüme gibi temel fikirlerin üzerine inşa edildiğini iddia edebilirsiniz.

Kitabın başlarında üstel büyüme fikrine , özellikle de Kurzweil’in ” İvmelenen Getiri Yasası “na saldırıyorsunuz. Bunun ne olduğunu ve neden hatalı olduğunu düşündüğünüzü açıklayabilir misiniz?

 

Kurzweil, evrenin işlerinde, özellikle teknoloji söz konusu olduğunda, değişmez bir “Hızlanan Getiriler Yasası”nın iş başında olduğunu düşünüyor. Bu, teknolojik ilerlemenin doğrusal değil, üstel olduğu fikridir. Bir teknolojideki ilerlemeler, gelecekte daha da hızlı ilerlemeleri besler ve bu da daha büyük karmaşıklığa ve daha büyük teknolojik güce yol açar ve böyle devam eder. Bu sadece bir hatadır. Kurzweil, Tekilliğin neden kaçınılmaz olduğunu açıklamak için Hızlanan Getiriler Yasasını kullanır, ancak açık olmak gerekirse, bu sözde yasaya inanan tek kişi o değildir.

“Gerçekten inanıyorum ki, bu adamlardan bazıları kadar zengin olduğunuzda, sadece düşünmek gibi görünen şeyler yapabilirsiniz ve kimse sizi gerçekten düzeltmeyecek veya duymak istemediğiniz şeyleri söylemeyecektir.”

Bana göre bu, Moore Yasası’na çok uzun süre bakmaktan kaynaklanan bir fikir. Moore Yasası, elbette, bir çipteki transistör sayısının her iki yılda bir, maliyette çok az bir artışla, kabaca iki katına çıkacağı yönündeki ünlü öngörüdür. Şimdi, bu aslında son 50 yıldır gerçekleşti, ancak evrendeki bazı temel yasalar nedeniyle değil. Bunun nedeni, teknoloji endüstrisinin bir seçim yapması ve bunu gerçekleştirmek için çok büyük yatırımlar yapmasıdır. Moore Yasası, nihayetinde gerçekten ilginç bir gözlem veya tarihsel bir eğilimin projeksiyonuydu, ancak Gordon Moore bile [bunu ilk dile getiren] bunun sonsuza kadar sürmeyeceğini ve süremeyeceğini biliyordu. Aslında, bazıları bunun çoktan bittiğini düşünüyor .

Bu ideolojiler ilhamını oldukça iğrenç karakterlerden alıyor. Transhümanizm, diyorsunuz, ilk olarak öjenist Julian Huxley tarafından 1951’de yaptığı bir konuşmada popülerleştirildi. Marc Andreessen’in “Tekno-Optimist Manifestosu”, ünlü faşist Filippo Tommaso Marinetti ve onun fütürist manifestosundan bahsediyor. Kitabı araştırırken, bu fikirleri savunan teknoloji devlerinin tehlikeli kökenlerini anladıkları hissine kapıldınız mı?

 

Bu soruyu çerçevelerken burada herhangi bir titiz düşüncenin olduğunu varsayıyorsunuz. Kitapta da söylediğim gibi, Andreessen’in manifestosu neredeyse tamamen hislere dayanıyor, mantığa değil. Sanırım birisi ona bir noktada fütürist manifestodan bahsetmiş olabilir ve o da genel hissiyatı beğenmiş olabilir, bu yüzden bir kısmını parafraze ediyor. Belki Marinetti hakkında bir şeyler öğrenmiş ve unutmuştur. Belki de umursamamıştır.

Gerçekten inanıyorum ki bu adamlardan bazıları kadar zengin olduğunuzda, sadece düşünmek gibi görünen şeyler yapabilirsiniz ve kimse sizi gerçekten düzeltmeyecek veya duymak istemediğiniz şeyleri söylemeyecektir. Bu milyarderlerin çoğu için faşizm, otoriterlik ve sömürgecilik titreşimleri çekicidir çünkü temelde bir kontrol fantezisi yaratmakla ilgilidir.

Bu gelecek vizyonlarının çevresel yıkımı hızlandırmak, otoriterliği artırmak ve eşitsizlikleri şiddetlendirmek için kullanıldığını savunuyorsunuz. Ayrıca milyarder olmayan birçok kişiye hitap ettiğini de kabul ediyorsunuz. Sizce neden? 

Sanırım çoğumuz teknoloji milyarderlerinin çektiği aynı sebeplerden dolayı bu fikirlere çekiliyoruz: Geleceğin ne getireceğini bilme, ölümün ötesine geçme ve dışarıda birinin veya bir şeyin kontrolde olduğu hissiyatını sunan bir fantezi sunuyorlar. Giderek karmaşıklaşan ve hızla hareket eden bir dünyada basit, tutarlı bir anlatının ne kadar rahatlatıcı olabileceğini abartmak zor. Elbette dinin çoğumuza sunduğu şey bu ve rasyonalist ve etkili fedakar topluluklardaki önemli sayıda insanın aslında eski evanjelistler olmasının bir tesadüf olduğunu düşünmüyorum.

Herhangi bir belirli teknolojiden daha fazla, bu milyarderlerin icat ettiği en önemli şeyin bir kaçınılmazlık duygusu olduğu anlaşılıyor; geleceğe yönelik vizyonlarının bir şekilde önceden belirlenmiş olduğu. Buna karşı nasıl mücadele edilir?

Zor bir soru. Benim için cevap bu kitabı yazmaktı. Sanırım şunu da söylerdim: Silikon Vadisi, hiçbir şeye karşı çok az veya hiç tepki görmeden on yıldan fazla bir süre geçirdi. Bu kesinlikle bu karmaşaya düşmemizin büyük bir nedeni. Hiçbir düzenleme yoktu, basında çok az eleştirel haber vardı ve çok fazla kendini mitolojileştirme vardı. Teknoloji şirketlerinin ve endüstri liderlerinin kolaylaştırmaya yardımcı olduğu sosyal ve çevresel zarar daha da netleştikçe, işler değişmeye başladı. Bu anlayış, bu teknoloji milyarderlerinin gücünü söndürmenin ve vizyonlarından kurtulmanın önemli bir parçasıdır. Bu gelecek hayallerinin aslında geri kalanımız için kabus olduğunu anladığımızda, bu kaçınılmazlık hissinin oldukça hızlı bir şekilde kaybolacağını düşünüyorum.

 

https://www.technologyreview.com/2025/06/13/1118198/agi-ai-superintelligence-billionaires/

Scroll to Top