
Dekan Jackson ve Samuel Woolley
2024 yılında, dünya çapındaki gözlemciler üretken yapay zekânın (YZ) seçimler üzerindeki etkisine hazırlanıyordu. Bu seçimler sona erdiğinde, dikkatler YZ’nin demokrasiye yönelik uzun vadeli risklerine çevrilmelidir. Bu makale, bu risklerden üçünü öngörmektedir. İlk olarak, siyasi iletişimin yerini almaya yönelik YZ destekli çabalar, temsili demokrasiyi aşındırabilir. İkinci olarak, YZ, demokrasinin yalnızca dış görünüşünü koruyarak servet ve gücün yoğunlaşmasına yönelik eğilimleri daha da kötüleştirebilir. Üçüncü olarak, medya ve teknolojideki ekonomik eğilimler, zaten zayıflamış güvenilir bilgi kaynaklarını zayıflatma tehdidinde bulunmaktadır. Bu sonuçlardan kaçınmak için, politika yapıcıların sektör profesyonellerinin bakış açılarına olan bağımlılıklarını azaltmaları gerekecektir.
2024 yılı, yapay zekâ (YZ) tarafından desteklenen yanlış ve dezenformasyon dalgasının yakında küresel istikrar için en büyük tehdit haline geleceği öngörüleriyle başladı. 1 Uzmanlar, dünyanın dört bir yanındaki kampanyalar, tanıtımcılar ve siyasi amaçlı bireylerin YZ ile deneyler yapmasıyla aylarca sürecek “YZ seçimlerinin” önümüzde olduğunu iddia etti.
Aslında, yapay zeka destekli etki yaratma çabaları ortaya çıktı. Sohbet robotları çevrimiçi siyasetçileri taklit etti ve kampanyalar, adaylarının kamuoyundaki imajını iyileştirmek için çizgi film avatarları kullandı. Kadın adaylar, rızaya dayanmayan yapay zeka tarafından oluşturulan mahrem görüntülerin kurbanı oldu. Sosyal medya, yapay zeka tarafından oluşturulan “pembe balçık”larla dolu sahte gazetelerle dolup taştı. Kampanyalar ve siyasi aktörler, yapay zeka robot arayıcıları ve robotexter’ları serbest bıraktı. Sentetik videolar, ulusal liderleri destek sağlamak için ölümden döndürdü.
Ocak 2025’e gelindiğinde, tüm bunların bir patlamaya mı yoksa bir iniltiye mi yol açtığını söylemek zordu. Seçmenleri kandırmak için tasarlanmış, tespit edilemeyen, yapay zekâ tarafından üretilmiş sahte görseller konusundaki uyarılara rağmen, olaylar, içeriği hızlı ve ucuz bir şekilde yayma yeteneğinin tek başına propagandacılara önemli bir fayda sağlamayacağını savunanları haklı çıkardı. 2 Üretken yapay zekâ, yanıltıcı içerik üretmeyi kolaylaştırdı, ancak zaten doymuş bir internette yalnızca içeriğin hacmi sınırlı bir değere sahip ve insanları zaten inandıkları şeylere ikna etmek için teknik gelişmişliğe ihtiyaç duyulmuyor. Sosyal medya ve dezenformasyon hakkındaki önceden var olan korkuların, genellikle hatalı bir şekilde veya ampirik kanıt olmaksızın, üretken yapay zekâya yansıtılmış olması muhtemel görünüyor. Yine de, üretken yapay zekâ, siyasi iletişimin perde arkasında oluşturulması ve iletilmesinde yavaş [Sayfa 139 Sonu] ama istikrarlı bir değişimi teşvik ediyor gibi görünüyor. Günümüzün seçim yetkilileri, veri analizlerini ve mesaj hedeflemelerini zenginleştirmek için yapay zeka sistemlerini kullanmayı deniyorlar. 3 Bu, önümüzdeki yıllarda daha gelişmiş hedeflemelere (örneğin, kararsız seçmenlere) yol açabilir.
Önemli seçim yılının aciliyeti geride kaldığına göre, artık siyasi iletişimde yapay zeka kaynaklı uzun vadeli riskler hakkında daha derinlemesine düşünebiliriz. Bu riskler, haftalar veya aylar yerine yıllar veya on yıllar sonra ortaya çıkacak ciddi risklerdir. Bunlar arasında, toplumların yapay zekayı geliştirme ve uygulama biçimlerinden doğrudan kaynaklanan demokrasi tehditleri de yer alır. Bu korkular, insanlık için varoluşsal riskler, “kontrolden çıkmış” yapay zeka veya yapay genel zekanın (OpenAI’nin “ekonomik açıdan en değerli işlerde insanlardan daha iyi performans gösteren son derece otonom sistemler”i ifade etmek için kullandığı belirsiz bir terim olan AGI) gelişiyle ilgili uyarılardan farklıdır. 4
Birçok kişi, gerçek olmalarına rağmen sıklıkla sansasyonelliğe (ki bu da izleyici ve tıklama çeker) maruz kalan bu risklere odaklanmaya devam edecek. Daha kademeli ve daha az dramatik değişikliklere de dikkat edilmelidir. İyi sürüş gibi, iyi yapay zeka yönetişimi de birden fazla zaman çizelgesindeki birden fazla riskin aynı anda farkında olmayı gerektirir: hem hemen önünüzdeki araba hem de uzakta beliren uzun, yokuş aşağı viraj. Dezenformasyona karşı küresel mücadelede, hangi endişelerin abartılı, hangilerinin ise küçümsendiğini belirlemek yoğun bir çaba ve zaman gerektirdi. Yapay zeka ve demokrasinin bir arada var olduğu bir dünya hayal edenler için de aynı şey geçerli olacaktır.
Eylül 2023’te, teknoloji uzmanları Bruce Schneier ve Nathan Sanders, yapay zeka politikasını belirlemek için mücadele eden üç “derinden bölünmüş grup” tanımladılar. 5 “Kıyamet tellalları” olarak adlandırdıkları ilk grup, kontrol edilemeyen yapay zeka sistemlerinin insanlığı köleleştireceği, hatta yok edeceği bir gelecekten korkuyordu. “Savaşçılar” olarak adlandırılan ikinci grup ise, ulus devletler arasında yapay zekayı geliştirmek ve kontrol etmek için sıfır toplamlı bir yarış öngörüyordu ve kazanan, bu yüzyılın geri kalanında ve belki de sonrasında küresel liderliğe ulaşacaktı.
Schneier ve Sanders’ın “reformcular” olarak adlandırdığı üçüncü grup, pervasız yapay zeka kullanımının getireceğini düşündükleri hak tehditlerini durdurmak istiyordu, ancak odak noktası çok yakın vadeliydi. Dünya genelinde algoritmik, yapay zeka kaynaklı hak ihlallerinin örnekleri halihazırda bol miktarda: Cezai hüküm algoritmalarına yerleştirilen ırksal önyargılar, adalet sistemlerinde eşitsiz sonuçlara yol açıyor; dolandırıcılık önleme ve diğer inceleme [Sayfa 140 Sonu] algoritmaları, insanların kamu yardımlarından yararlanmasını hatalı bir şekilde engelledi; ve Birleşik Krallık’taki okul sınavlarını değerlendirmek için kullanılan bir algoritma, işçi sınıfından öğrencilerin puanlarını düşürerek birçok öğrencinin üniversiteye girmesini engelledi.
Yıllardır hükümetler, sağlık hizmetleri talepleri, çocuk refahı araştırmaları ve konut yardımı konularında kararlar almak için bilgisayarları kullanıyor. Büyük dil modelleri (veya ChatGPT gibi hizmetlerin arkasındaki yazılım olan LLM’ler), bu uygulamayı hem daha şeffaf hem de daha yaygın hale getirecek. Yapay zekânın kullanımı yaygınlaştıkça, giderek daha fazla alanda otomatikleştireceği adaletsizlikleri tespit etmek ve düzeltmek daha da zorlaşacak. Ayrıca, yapay zekânın hükümetler de dahil olmak üzere, hâlâ çok ilkel ve yeterli inceleme veya denetimden geçmeden uygulanması endişe verici. 6 Bu durum, daha da ciddi ve tespit edilmesi zor sorunlara yol açacak.
Eşitsizlik ve sosyal dışlanma elbette yapay zekâdan çok önce ortaya çıktı, ancak teknoloji eski kötülüklere yeni bir güç ve boyut kazandırabilir: Bilim endüstrisinin savaşın ölümcüllüğünü ve yıkıcı potansiyelini artırmak için ne kadar çabaladığını düşünün. Dahası, belirli bir amaç için geliştirilen teknoloji genellikle başka bir amaç için de kullanılabilir. Örneğin Çin ve Amerika Birleşik Devletleri’nde sosyal medyadan, plaka okuyuculardan, yüz tanıma kameralarından, devlet kayıtlarından ve diğer kaynaklardan toplanan veriler, yeni öngörücü polislik biçimlerine katkıda bulunmadan önce kamu güvenliği ve terörle mücadelede kullanılmak üzere toplandı. 7 Bu tecavüz ve yapay zekâ destekli bu panoptikonun varlığı, siyasi faaliyetlere kendi soğukluğunu getirdi.
Bugünün Seçimleri Yarını Şekillendirecek
Reformcuların acil endişelerine anlayışla yaklaşırken, yapay zekanın dünya genelindeki demokratik siyasi sistemlerin temellerini nasıl zorlayabileceğine, hatta çatlatabileceğine dikkat çekmeyi umuyoruz. Bilgeliğin başlangıcı, tekno-determinizmi bir kenara bırakmaktır: Geleceği şekillendirirken insan iradesi önemlidir. Günümüzün politika yapıcıları ve iş liderleri, yapay zekanın önümüzdeki on yıllar boyunca dünya genelindeki toplumlarda nasıl gelişeceğini ve kullanılacağını seçiyor. Başka bir deyişle, yapay zeka, etkisi insanların yerleştireceği hızlandırıcılar ve bariyerler tarafından belirlenecek “normal bir teknoloji” örneğidir. 8
Ya önümüzdeki yirmi yıl içinde, kontrolden çıkan yapay zeka endişeleri gerçekleşmez de, bunun yerine endüstri lobiciliği ve büyük güç rekabetinin baskısı, yapay zekanın çok az düzenlemeyle benimsenmesine yol açarsa? 9 Bu teknoloji, demokrasinin geçen yüzyılın büyük bir bölümünde gelişmesini sağlayan süreçleri, kurumları ve sosyoekonomik ön koşulları değiştirebilir. Birçok yapay zeka “savaşçısı”, yapay zekanın çağdaş demokrasinin işleyişini sağlayan altyapının çoğunun yerini alacağı bir dünya için açıkça çalışıyor. Silikon Vadisi’ndeki bazıları, demokrasi çağının geçtiğini ve bir zamanlar küçümsenen teknokrasi kavramlarını yeniden canlandırdığını bile savunuyor. 10 Siyaset bilimci Henry Farrell’ın uyardığı gibi, insan süper zekası yarışı [Sayfa 141 Sonu] , maddi ve ideolojik çıkarları demokrasiye düşman olan güçlü aktörleri, yapay zeka sistemlerini hükümetlerin yaptığı şeylerin yerine koymaya zorluyor. 11
Yapay zekadaki mevcut patlama, yapay zekanın yeterince düşünülmeden benimsenmesine yol açarsa, her biri demokrasi için kötü olacak üç eğilim öngörüyoruz. İlk olarak, siyasi yetkililer (gerçek ve istekli) ile halk arasındaki siyasi iletişimi kolaylaştırmaya veya hatta değiştirmeye yönelik yapay zeka destekli çabalar, temsili demokrasinin merkezinde yer alan yöneticiler ve yönetilenler arasındaki geri bildirim döngüsünü kıracaktır. İkinci olarak, yapay zeka mevcut zenginlik ve güç yoğunlaşmalarını daha da kötüleştirecek ve demokrasiyi içi boş bir kabuğa dönüştürecektir. Üçüncü olarak, LLM’ler tarafından bilginin geniş çaplı konsolidasyonu, üretken yapay zekanın orijinal, insan yapımı çalışmalardan yararlanma ve bunları gölgede bırakma kapasitesiyle birlikte, zaten azalan güvenilir haber ve bilgi kaynakları için ekonomik sonuçlar doğuracaktır. Teknoloji sektörü bilgi ve kamusal söylem üzerinde daha da fazla kontrol talep ederken, günümüzün epistemik krizi derinleşecektir.
Halkın temsiliyeti ve seçimler her zaman demokrasiyle eş anlamlı olmamıştır. Antik Atina’da vatandaşlar Meclis’i kura ile doldururdu ve ABD’nin kurucuları, yarattıkları temsili cumhuriyet ile “saf” demokrasi arasında bir ayrım gözetirdi. Ancak bugün, bu terimler büyük ölçüde birbirinin yerine kullanılabilir.
Bu durum, temsili hükümetin halk iradesini politikaya dönüştürme süreçlerinin karmaşıklığını gizler. Bu süreçler genellikle eski, kusurlu ve sinir bozucudur. Seçim bölgesi kuralarında ve oy sayımında yapılan teknik değişiklikler, sonuçları büyük ölçüde değiştirebilir; örneğin, partilerin sayıca artmasına veya azalmasına ve yetkililerin kutuplaşmaya daha yatkın veya daha az eğilimli olmasına neden olabilir. Siyasi bilgi ve eğitim düzeyleri çok farklı olan vatandaşlardan görüş almak için genellikle düşük katılımlı seçimlere güvenmek, uzun zamandır birçok gözlemciyi endişelendirmektedir. Siyasi söylem genellikle sonuçsuz ve hatta zehirli hissettirir.
Teknoloji uzmanları, siyasi kampanyalardan seçmen hizmetlerine ve kamuoyu yoklamalarına kadar demokratik süreçleri iyileştirmenin bir yolu olarak yapay zekayı sunuyor. 12 Örneğin, 2024’te Pensilvanya Genel Meclisi adayı, yaratıcısının eyalet ve yerel yetkililerin bir gün bu tür sohbet robotlarını seçmen görüşlerini toplamak ve analiz etmek için kullanabileceğini öngördüğü bir yapay zeka robotu kullandı. 13 Günümüzde ABD yetkilileri, sözleşmeleri incelemek, dolandırıcılığı tespit etmek ve devlet hizmeti alıcılarıyla ilgilenmek için yapay zekayı kullanmaya başlıyor. Eski Google CEO’su Eric Schmidt bile, yapay zekanın hükümeti kökten değiştireceğini ve yasama ve yargı süreçlerine nüfuz edeceğini öngördü. 14
ABD düzenleme sürecinin önemli bir parçası olan kamuoyu yorumları, bilgisayar tarafından oluşturulan içerikler tarafından halihazırda manipüle ediliyor. Örneğin, 2017 yılında Federal İletişim Komisyonu’nun “ağ tarafsızlığı”nın kaldırılmasıyla ilgili yorum çağrısı 22 milyon yanıt aldı; bunların yaklaşık üçte biri telekomünikasyon şirketleri tarafından oluşturulan otomatik hesaplara, üçte biri ise tek bir bilgisayar bilimi öğrencisinden geldi. Üretken yapay zeka, bu tür manipülasyonların ölçeklendirilmesini ve iyileştirilmesini çok daha kolay hale getiriyor. Kongre, bu sorunu ele almak için 2024 yılında bir “Yorum Bütünlüğü ve Yönetimi Yasası” taslağı hazırladı, ancak henüz yasalaşmadı. 15 Bazı gözlemciler, gelecekteki anketörlerin, düşen anket yanıt oranlarını telafi etmek için yapay zekanın çıkarımlar yapmasını sağlayacağını ve varsayılan seçmenleri gerçek seçmenlerle değiştireceğini öngörüyor.
Daha da önemlisi, anketler ve resmi modeller, siyaset ve bilişsel bilimin grup karar alma süreçlerinde olmazsa olmaz kabul ettiği müzakerenin hiçbir faydasını sağlamaz. Müzakere, hem kamuoyu tartışmalarının hem de yasama süreçlerinin merkezinde yer alır. Müzakere yoluyla insanlar önyargılara meydan okur, varsayımları sorgular, bilgi toplar ve uzlaşma sağlayarak daha savunulabilir sonuçlara ve kalıcı kararlara ulaşırlar. Bir dizi saha deneyi, sağlık hizmetlerinden göçmenliğe kadar bölücü politika konularını tartışmak üzere beş yüz ABD seçmenini bir araya getirdiğinde, politika görüşleri birbirine daha yakın hale geldi ve karşıt siyasi parti üyelerine karşı daha az düşmanca tavır takındılar. 16
Benzer sonuçların yasa koyucular için de geçerli olmasını beklemek makul: Pozisyonlarını oluşturmak için verilere ne kadar çok güvenirlerse, duruşları o kadar sertleşir ve yasama organı o kadar kutuplaşır. Anket verilerine güvenen politikacıların uzlaşmaya daha az teşviki vardır ve belirli seçmen gruplarını hedef alan, dar görüşlü mesajlara güvenme olasılıkları daha yüksektir. 17 Sonuç olarak, siyasi iletişim, düşünceli bir diyalog veya tartışmadan ziyade megafona bağırılan sloganlara benzer.
Adalet Fikri adlı eserinde ekonomist Amartya Sen, demokrasiyi, çatışan bakış açılarının paylaşılan bir yönetim altında bir arada var olmasını sağlayan kamusal akıl yürütme süreci olarak tanımlar. 18 Bu süreci yapay zekâ ile değiştirme girişimleri, Platon’un Devlet’i kadar eski bir dürtüyü yansıtır : Mükemmel teknik bilginin, yavaş, sinir bozucu ve neredeyse hiçbir zaman tam anlamıyla tatmin edici olmayan müzakere süreçlerinin yerini alabileceği umudu. Yine de bu süreçler yüzyıllardır varlığını sürdürerek birçok rakibinden daha uzun ömürlü olmuştur. Başarılarının sebebi tam da yavaş ve müzakereli olmalarıdır. Bilgisayar gücüyle atlatılamaz veya değiştirilemezler. Bunu yapmak onları demokratik olmayan bir hale getirir.
Eşitsizlik, Teknokrasi ve Oligarşi
Sınırsız yapay zekanın yol açacağını öngördüğümüz ikinci risk, artan ekonomik eşitsizliklerin demokrasiyi daha hızlı aşındırmasıdır. Bu yeni bir trend değil, ancak yapay zeka durumu daha da kötüleştirebilir: Bilim insanları, geçen yüzyılın sonlarında bilgi teknolojisindeki kazanımların daha keskin eşitsizliği körüklediği konusunda büyük ölçüde hemfikir ve yapay zeka gibi gelişmelerin bu yüzyılda da aynısını yapmasını bekliyorlar. 19 İşgücü piyasalarında öngörülen değişiklikler çarpıcı. Anthropic’in [Sayfa 143’ün Sonu] CEO’su Dario Amodei, yapay zekanın beş yıl içinde tüm giriş seviyesi beyaz yakalı işlerin yarısının yerini alabileceğine inanıyor. En az bir girişim şirketi olan Mechanize, temel misyonunun beyaz yakalı işleri mümkün olan en kısa sürede otomatikleştirmek olduğunu söylüyor. Yakın tarihli bir manşet, dünyanın yakında tek bir insan çalışanı olan ilk milyar dolarlık şirketini görebileceğini iddia etti.
Son araştırmalar, ister servet ister gelir olsun eşitsizliğin, güvensizlik, kutuplaşma, alaycılık ve otokratik popülizm gibi olumsuz eğilimleri tetiklediği için, eski demokrasilerde bile demokratik gerileme ve çöküşün güçlü bir göstergesi olduğunu ileri sürmektedir. 20 Çoğu analiz bu daha geniş faktörlere odaklanırken, bir diğer yaygın araştırma merceği ise işgücü piyasalarındaki değişikliklerin ücret farkları, eğitim erişimi ve sivil ve sosyal katılım gibi faktörleri nasıl etkilediğini incelemektedir. Journal of Democracy dergisinde yazan Stephanie Bell ve Anton Korinek, yapay zeka zengin ve fakir arasındaki uçurumu derinleştirirse, demokrasilerin, kısır bir döngü içinde, dar görüşlü ve adaletsiz elitlerden bıkmış vatandaşlar arasında daha derin popülist tepkilere yol açabilecek yozlaşmış oligarşik sistemlere dönüşebileceğini öne sürmektedir. 21
Hükümetler, kaynakları iyi olan gruplar ve bireyler tarafından ele geçirilmeye yatkındır ve teknoloji milyarderlerinin de bol miktarda kaynağı vardır. Demokrasinin cazibesini ve bazı özelliklerini, tam da güçlü bir otokratın kendi bağımsızlıklarını tehdit edeceği için korumak isteyebilirler. Ancak günümüzün antidemokratik, ultra zengin yapay zeka savunucuları bunun çok ötesine geçiyor: Eski tarz oligarklar devleti ele geçirmek isterken, yeni yapay zeka savunucuları onu tamamen ortadan kaldırmak istiyor.
Dünyanın en zengin teknoloji yöneticilerinin bazılarının hem temsili hükümete ideolojik olarak karşı çıkmaları hem de insanların ve onların karmaşık adalet taleplerinin yerini yazılımla dolduracak bir teknolojiye hayran olmaları tesadüf değil. Hatta bazı teorisyenler, dünya çapında tarihsel olarak zengin olanlar ile diğer herkes arasındaki uçurum derinleştikçe tam da bu sonucu bekliyor. Kapitalist bir sistemde demokrasi mümkün çünkü sermaye zengini elitler, yeniden dağıtım taleplerine tahammül edecek kadar eğitimli bir iş gücüne değer veriyor; işçilerin pazarlık gücü ve sendika gibi örgütlere katılımı sistemi daha da güçlendiriyor. Peki ya elitler yapay zekanın bu insan işçilerin yerini alabileceğine inandığında ne olur?
Artan gelir eşitsizliği ve teknolojik gelişmeler, demokrasinin bu yapısal öncüllerini değiştiriyor. Günümüzde teknoloji devleri, yapay zekânın sermaye getirisini artırdığı, eğitimli çalışanların yerini makinelerle doldurduğu ve emeğin zaten azalmış olan pazarlık gücünü daha da zayıflattığı bir gelecek öngörüyor. Başka bir deyişle, halkı ve onun devlet hizmetleri ve sosyal adalet konusundaki rahatsız edici taleplerini önemsiz kılmayı umuyorlar. 22
Tüm bunlar derinden rahatsız ediciyse, son bir tehlikeyi düşünün: Demokrasinin sentetik bir alternatifle değiştirilmesi, muhtemelen daha da büyük bir eşitsizliğe ve güç yoğunlaşmasına yol açacak ve demokratik gerileme ile eşitsizliğin birbirini hızlandırdığı bir geri besleme döngüsü yaratacaktır . En kötü durumda, böyle bir döngüden çıkmak için ekonomik bir çöküş veya iç savaş gerekebilir.
Bilgi Ormanının Kralları
Öngördüğümüz üçüncü zorluk, sosyal medyanın yükselişi ve üretken yapay zekaya tepki olarak değişimiyle zaten istikrarsızlaşmış olan bilgi ortamının, demokrasiyi daha az savunulabilir hale getirecek şekilde dönüşebileceğidir. Bu öngörü iki eğilime dayanmaktadır: Birincisi, resmi gazetelerden dijital yayın organlarına kadar önemli bilgi kaynakları, hukuk yüksek lisansı (LL.M.) programlarının web trafiğini yönlendirmesi ve sosyal medyanın yıllardır sömürdüğü bir gelir akışını azaltmasıyla ekonomik olarak zaten zorlanıyor. İkincisi, hukuk yüksek lisansı (LL.M.) programları bilgi arayan tüketiciler için daha yaygın bir başlangıç noktası haline geldikçe, teknoloji sektöründeki az sayıda oyuncu kamuoyu ve söylem üzerinde daha fazla kontrol sahibi olacak.
Yapay zekayı gazetecilerin haberlerini desteklemek için kullanma konusunda yapılan değerli deneylere rağmen, insan haberciliği yapay zekanın yerini tutamayacak avantajlar sunuyor. Medya uzmanı Courtney Radsch’in de belirttiği gibi, yapay zeka haber olaylarının tanıklarıyla görüşme yapmayacak. 23 Muhabirlerin sağladığı derinlemesine bağlamsal, insan odaklı nüans ve içgüdü, bir makineden elde edebileceğimiz bir şey değil.
Günümüzde haber merkezlerinde, yapay zekâ genellikle hafif düzenlenmiş veya düzenlenmemiş resmi açıklamalar, polis raporları, spor karşılaşmalarının skorları veya halkla ilişkiler ajanslarının basın bültenlerinden oluşan düşük kaliteli içerik (“churnalism”) üretmek için kullanılıyor. Bu, kaynaklı bir habercilik değil, sürekli gelişen hesaplama süreçleri tarafından seçilen değişkenler yoluyla yapılan insanlıktan uzak bir haberciliktir. Ancak bu süreçler, kodlama, veri etiketleme ve insanların önyargıları ve arzuları ile üretilen içerikler tarafından belirlenir ve bu içerikler genellikle belirsiz ve endişe verici şekillerde çıktıya dahil edilir. Bu tür faaliyetlerdeki insan rolünün gizli kalması, birçok kişiye, ister haber odaklı ister başka türlü olsun, yapay zekâ ve algoritmaların insan karar alma mekanizmalarından daha “nesnel” olduğu yanıltıcı izlenimini verir. Aslında, etik gazetecilik için net standartları izleyen geleneksel insan editörler tarafından denetlenen içeriklere kıyasla daha kusurlu ve güvenilir, doğru şekilde alıntılanmış kaynaklara daha az dayanıyor olabilirler.
Haber sektörünün zaten tehlikeli olan ekonomik talihi düşmeye devam ederse, yetkilileri sorumlu tutma ve olayları anlamlandırmaya yardımcı olma görevleri, yalnızca insanların gerçekleştirebileceği için boşa gidebilir. Vikipedi’den haber odalarına kadar bilgi profesyonelleri, Hukuk Yüksek Lisansı (LL.M.) öğrencilerinin sitelerini web kazıyıcılarla doldurmasından, içeriklerini intihal etmesinden ve internet aramalarından gelen trafiği azaltmasından endişe duyuyor. 24 Yapay zeka tarafından üretilen haber özetleri, tüketicilerin gazete ve web sitelerine abonelik talebini de azaltabilir ve geliri daha da düşürebilir. Güvenilir ve doğrulanmış bilgi kaynakları azaldıkça (ki bunlar trafiği azaltırken LLM’ler tarafından eğitilmişlerdir), haber [Sayfa 145 Sonu] tüketicileri son ve özellikle yerel olaylar hakkında daha az bilgi kaynağına sahip olacak. İnternet zaten çöp içerikle dolu ve Yapay Zeka bunu daha da kötüleştirme tehdidinde bulunuyor.
Bu korku, eğitim teknolojisi firması Chegg’in Google’a karşı açtığı davanın merkezinde yer alıyor. Chegg’in açtığı antitröst davası, Google’ın kendi yapay zeka tarafından üretilen özetlerini arama sonuçlarının en üstüne koyması nedeniyle Chegg’i daha az kullanıcının ziyaret ettiğini iddia ediyor. Başka bir dava ise en büyük yayıncıların nasıl ayakta kalabileceğini gösteriyor: New York Times , ChatGPT’nin yaratıcısı OpenAI’yi, gazetenin içeriğini bu modeli eğitmek için kullandığı ve modelin (istendiğinde) Times’dan içerik üretebildiği gerekçesiyle dava ediyor . 25 Birçok kişi, davanın OpenAI’nin gazetenin materyallerine erişim için ödeme yapması konusunda bir anlaşmayla sonuçlanmasını bekliyor. Bu arada, New York Times’ın nüfuzuna ve kaynaklarına sahip olmayan yayıncılar ve yerel yayın kuruluşları dışarıda kalma riskiyle karşı karşıya.
İronik bir şekilde, web yayıncılarının yoksullaşması gelecekteki yapay zeka gelişimini de tehdit ediyor ve bilgi otoyolunda bir çıkmaza yol açıyor. Günümüzün hukuk fakülteleri trilyonlarca kelimeyle eğitildi ve ilerlemeler bugüne kadarki ilerleme hızını koruyacaksa, yapay zekanın katlanarak daha fazla veriye ihtiyacı olacak. Peki bu uçsuz bucaksız veri okyanusları nereden gelecek?
Bazı gözlemciler, gelecek nesil hukuk lisansı (LLM) programlarının sentetik veriler üzerinde eğitilebileceğini öne sürdüler; kısacası, makineler diğer makineleri eğiten içerikler üretecek. Peki ya insan yapımı içeriğin yerini doldurması zorsa? Bazı araştırmacılar, sentetik, makine yapımı veriler üzerinde eğitilen yapay zeka sistemlerinin, “model çöküşü” adı verilen bir süreçle zamanla ortalamaya geri döndüğünü öne sürüyor: İstatistiksel toplamlardan oluşturulan modeller üst üste bindirildiğinde, çıktıları daha homojen hale gelebiliyor. 26 Diğer araştırmacılar, sözde akıl yürütme modellerinin, katlanarak daha fazla eğitim verisine ihtiyaç duymadan daha derinlemesine sonuçlar vereceğini umuyor; ancak Apple araştırmacılarının yeni bir makalesi, bu modellerin basit problemleri gereğinden fazla düşünüp karmaşık problemlerden hızla vazgeçtiğini gösteriyor. 27
Hukuk alanındaki lisans dereceleri haber ve bilginin önde gelen, hatta birincil kaynağı haline gelirse, teknoloji şirketlerinin zaten sorunlu olan bilgi bekçisi ve kanaat önderi olma becerilerini daha da derinleştirebilir. Google, Facebook, TikTok ve Twitter şu anda milyarlarca insanın hangi kullanıcı tarafından oluşturulan içerik parçalarını göreceğine karar veriyor. Ancak en azından bu hizmetler (çoğu zaman) gerçek insanlar tarafından oluşturulan gerçek içerikleri aktarıyor. Buna karşılık, üretken yapay zeka, kullanıcı komutları, model eğitimi sırasında alınan kararlar ve şirketlerin tüketici kullanımı için modeller hazırlarken eklediği güvenlik önlemleri ve talimatların karmaşık kombinasyonları aracılığıyla kendi içeriğini oluşturur. Yapay zeka sohbet robotları insanların kullandığı medyanın büyük bir bölümünü sağlamaya başlarsa, teknoloji yöneticilerinin kamusal söylem üzerindeki etkisi daha da büyük ve daha az şeffaf hale gelecektir.
Kendi ekonomik ve politik çıkarları olan birkaç kodamanın, bilgi akışı üzerinde daha büyük bir güce sahip olmasına [Sayfa 146 Sonu] güvenilmemelidir. Elon Musk’ın yapay zeka sohbet robotu Grok’un, Güney Afrika’daki beyaz soykırımı hakkındaki alakasız komplo teorileriyle ve bir dizi antisemitik gönderiyle kullanıcı uyarılarına yanıt vermesiyle ilgili son olaylar, bu tür sistemlerin siyasi manipülasyon için kullanılabileceği riskini göstermektedir. 28 Çin’de de benzer tehlikeler, Çinli yapay zeka modeli DeepSeek’in 1989 Tiananmen Meydanı katliamıyla ilgili soruları yanıtlamayı reddetmesinden açıkça anlaşılmaktadır. 29 Güçlü ideolojik amaçları olmayan yapay zeka sağlayıcılarına gelince, bilgi akışı üzerinde olağanüstü bir güce sahip olmaları için siyasi baskılara fazlasıyla maruz kalmaktadırlar.
Sentetik Demokrasiden Kaçınmak
Politika yapıcılar bu sonuçların herhangi birini veya tamamını önleyebilir. Hükümetler tarafından yapay zekanın tedarik ve dağıtımına daha eleştirel bir bakış açısı makul bir başlangıç noktası olacaktır. Pensilvanya’daki eyalet hükümeti çalışanları için bir pilot programda modellenen gibi daha yavaş ve daha dikkatli bir benimseme, yapay zekanın zararlı sonuçlarına maruz kalmadan potansiyel verimlilik kazanımlarından yararlanabilir. Bir diğer yaygın öneri ise, devlet kurumları tarafından kullanılan yapay zeka hizmetlerinde risk ve insan hakları denetimlerinin standart hale getirilmesidir. Eşitsizlik, çok sayıda ve özel vergi, harcama ve işgücü politikasıyla ele alınabilir. Benzer şekilde, haber medyasının sağlığını iyileştirmeye yönelik öneriler de yaygındır – örneğin kamu desteği, hayırseverlik modelleri ve vatandaş girişimleri yoluyla. Sorun, politika kaldıraçlarının veya fikirlerin eksikliği değildir.
Aksine, günümüz demokrasileri siyasi irade eksikliğinden muzdarip. Politika yapıcılar, yapay zekânın ekonomik vaatlerine hayran kalıyor veya rakip hükümetlerin “yapay zekâ yarışını” kazanıp bu zaferi hakimiyet kurmak için kullanma tehdidinden korkuyor. Eşitsiz ekonomik sonuçlar, artan iklim riskleri (yapay zekâ veri merkezleri inanılmaz miktarda elektrik gerektiriyor) ve kanıtlanmamış teknolojilere aşırı yatırım konusundaki uyarılar, girişim sermayedarlarının ve teknoloji sanayicilerinin politika yapıcılar üzerindeki etkisini azaltmada başarısız oldu. Korktuğumuz sonuçlardan kaçınılacaksa, bu durum devam edemez. Ancak demokrasi savunucuları, hem ekonominin hakim güçlerini hem de seçkinlerin kanaati üzerinde güçlü bir hakimiyeti elinde bulunduran yapay zekâ patronlarına karşı derin bir dezavantajla yola çıkıyorlar.
İki nokta vurgulanmalıdır: Birincisi, yapay zekâ insan iradesi ve aklından bağımsız olarak ilerleyen kaçınılmaz bir baskın güç değil, uygulanmasına insanların karar vereceği belirsiz bir fayda teknolojisidir. İkincisi, bilimsel araştırma, hükümet düzenlemesi ve kamuoyu tartışması süreçleri zaman alabilir, ancak bu onları makine yönetimine (yani makineye sahip olanlar tarafından yönetime) göre daha aşağı bir konumda yapmaz. Yönetişimi iyileştirme ve bilgiyi genişletme çabaları bilgisayarlar tarafından hızlandırıldığında her zaman iyileşmeyebilir; aksine, sosyal medyada gördüğümüz gibi, bilginin hızı ve hacmindeki artışlar [Sayfa 147 Sonu] diyalog ve karar alma kalitesini düşürebilir. Üniversiteler, yasama organları ve mahkemeler gibi eski kurumların yerini teknolojik hızlı çözümlerin alması, güç ve bilgiyi o kadar yoğun bir şekilde yoğunlaştıracaktır ki, demokrasiyi mümkün kılan koşullar yok olacaktır.
Sosyal bilimler ve beşeri bilimler, bu konularda fikir sunmak için iyi bir konumdadır ve sektör profesyonellerinin bakış açılarına önemli dengeleyici unsurlar sağlayabilir. Yapay zeka etrafındaki söylem, teknik bilginin diğer uzmanlık alanlarına kıyasla aşırı değerlendiği bir başka alandır. Ne yazık ki, günümüzde üniversitelere ve diğer bilgi kaynaklarına yönelik siyasi saldırılar, yapay zeka ve demokrasinin geleceği konusunda endişe duyan profesyonellerin ortak sesini zayıflatıyor. Hâlâ yapabiliyorken, şimdi yüksek sesle konuşmalılar.
Dekan Jackson
Dean Jackson, Atlantic Council’in Dijital Adli Araştırma Laboratuvarı’nda yerleşik olmayan bir araştırmacı ve demokrasi, teknoloji ve medyaya odaklanan bir araştırma danışmanlık şirketi olan Public Circle, LLC’nin müdürüdür .
Samuel Woolley
Samuel Woolley, Pittsburgh Üniversitesi’nde iletişim alanında doçenttir ve Dezenformasyon Çalışmaları alanında William S. Dietrich II Vakfı Kürsüsü’nü yönetmektedir .
NOTLAR
- Dünya Ekonomik Forumu, Küresel Riskler Raporu 2024 , Ocak 2024, www.weforum.org/publications/global-risks-report-2024 .
- Sayash Kapoor ve Arvind Narayanan. “Sosyal Medyada Üretken Yapay Zeka Tufanına Nasıl Hazırlanılır?”, Columbia Üniversitesi Knight Birinci Değişiklik Enstitüsü, 16 Haziran 2023, https://knightcolumbia.org/content/how-to-prepare-for-the-deluge-of-generative-ai-on-social-media .
- Dean Jackson ve Meghan Conroy, “Kıyamet Sonrası mı? Yapay Zekanın 2024 Seçimleri Üzerindeki Gerçek Etkisi”, Atlantic Council, 17 Ekim 2024, www.atlanticcouncil.org/content-series/the-big-story/apocalypse-later ; Zelly Martin ve diğerleri, “Siyasi Makineler: ABD 2024 Seçimlerinde ve Sonrasında Üretken Yapay Zekanın Rolünü Anlamak”, Teksas Üniversitesi Austin Medya Katılım Merkezi, Mayıs 2024, https://mediaengagement.org/research/generative-ai-elections-and-beyond/ .
- Yoshua Bengio, “Yapay Zeka ve Felaket Riski”, Journal of Democracy 34 (Ekim 2023): 111–21; Tom Davidson, “Kontrolsüz Yapay Zekanın Tehlikesi”, Journal of Democracy 34 (Ekim 2023): 132–40; OpenAI, “OpenAI Sözleşmesi”, 9 Nisan 2018, https://openai.com/charter .
- Bruce Schneier ve Nathan Sanders, “Yapay Zeka Savaşlarında Üç Grup Var ve Hepsi Güç İstiyor”, New York Times , 28 Eylül 2023, www.nytimes.com/2023/09/28/opinion/ai-safety-ethics-effective.html .
- Samantha Shorey, “Yapay Zeka ve Devlet Çalışanları: Kamu Yönetiminde Kullanım Örnekleri”, Roosevelt Enstitüsü, 15 Temmuz 2025, https://rooseveltinstitute.org/publications/aiand-government-workers .
- Prithvi Subramani Iyer, “Büyük Veri Otokratik Meşruiyeti Nasıl Güçlendirebilir (Güvenlik ve Kolaylık Retoriği Yoluyla),” Politika Özeti no. 137, Toda Barış Enstitüsü, Eylül 2022 (Eylül 2022), 4, https://toda.org/assets/files/resources/policy-briefs/tpb-137_big-data-autocratic-legitimacy_iyer.pdf ; Dia Kayyali, “Uzmanlara Sorun: Yapay Zeka Gözetimi ve ABD Göçmenlik Uygulamaları,” Tech Policy Press , 22 Nisan 2025, www.techpolicy.press/ask-the-experts-ai-surveillance-and-us-immigration-enforcement .
- Arvind Narayanan ve Sayash Kapoor, “Normal Teknoloji Olarak Yapay Zeka”, Columbia Üniversitesi Knight First Amendment Institute, 15 Nisan 2025, https://kfai-documents.s3.amazonaws.com/documents/c3cac5a2a7/AI-as-Normal-Technology—Narayanan—Kapoor.pdf .
- Eric Schmidt, “Yapay Zeka, Büyük Güç Rekabeti ve Ulusal Güvenlik”, Daedalus 151 (İlkbahar 2022): 288–98, www.jstor.org/stable/48662042 .
- Barton Gellman, “Peter Thiel Demokrasiden Uzaklaşıyor”, Atlantic , 9 Kasım 2023, www.theatlantic.com/politics/archive/2023/11/peter-thiel-2024-election-politics-investing-life-views/675946 ; Jill Lepore, “Elon Musk’ı Harekete Geçiren Başarısız Fikirler”, New York Times , 4 Nisan 2025, www.nytimes.com/2025/04/04/opinion/elon-muskdoge-technocracy.html .
- Henry Farrell, “AGI Hazırlıkçıları DOGE’yi Benimsemeli mi?” Programmable Mutter , Substack, 18 Mart 2025, www.programmablemutter.com/p/should-agi-preppers-embrace-doge .
- Bruce Schneier, “Yapay Zekanın Demokrasiyi Değiştireceği On Yol”, Harvard Kennedy Okulu Ash Demokratik Yönetim ve İnovasyon Merkezi, 6 Kasım 2023, https://ash.harvard.edu/articles/ten-ways-ai-will-change-democracy .
- Dean Jackson ve Zelly Martin, “Deepfakes’i Unutun: Sosyal Dinleme, Üretken Yapay Zeka’nın Politikadaki En Önemli Kullanımı Olabilir”, Tech Policy Press , 18 Haziran 2024, www.techpolicy.press/forget-deepfakes-social-listening-might-be-the-most-consequential-use-of-generative-ai-in-politics .
- Eric Schmidt, “Demokrasi Yapay Zeka’dan Kurtulabilir mi?” Deseret News , 5 Ocak 2025, www.deseret.com/opinion/2025/01/05/artificial-intelligence-and-democracy-eric-schmidt .
- Sarah Kreps ve Doug Kriner, “Yapay Zeka Demokrasiyi Nasıl Tehdit Ediyor,” Journal of Democracy 34 (Ekim 2023): 122–31; Adam Mazmanian, “Temsilciler Meclisi Tasarısı, Kural Oluşturmada Yapay Zeka Tarafından Oluşturulan Yorumları Hedef Alıyor,” NextGov/FCW , 8 Mayıs 2024, www.nextgov.com/artificial-intelligence/2024/05/house-bill-targets-ai-generated-comments-rulemaking/396419 .
- James Fishkin ve diğerleri, “Kararlılık, Aşırı Partizan Kutuplaşmaya Karşı Bir Panzehir mi? ‘Tek Odada Amerika’ Üzerine Düşünceler”, American Political Science Review 115 (Kasım 2021): 1464–81; Hugo Mercier ve Dan Sperber, Aklın Bilmecesi (Cambridge: Harvard University Press, 2019).
- D. Sunshine Hillygus, “Amerika Birleşik Devletleri’nde Seçim Anketlerinin Evrimi”, Political Opinion Quarterly 75, no. 5 (2011), 962–81, https://sites.duke.edu/hillygus/files/2014/06/HillygusPOQpolling.pdf .
- Amartya Sen, Adalet Fikri (Cambridge: Harvard University Press, 2011).
- David Rotman, “Teknoloji ve Eşitsizlik”, MIT Technology Review , 21 Ekim 2014, www.technologyreview.com/2014/10/21/170679/technology-and-inequality .
- Eli G. Rau ve Susan Stokes, “Gelir Eşitsizliği ve Yirmi Birinci Yüzyılda Demokrasinin Aşınması”, Ulusal Bilimler Akademisi Bildirileri , 122, no. 1 (2025), e2422543121, www.pnas.org/doi/10.1073/pnas.2422543121 .
- Stephanie A. Bell ve Anton Korinek, “Yapay Zeka’nın Ekonomik Tehlikesi”, Journal of Democracy 34 (Ekim 2023): 151–61.
- Moritz von Knebel, “Artık İhtiyaç Duyulmadığımız Zaman: Yükselen Elitler, Teknoloji Trilyonerleri ve Demokrasinin Gerilemesi”, Tech Policy Press , 8 Mayıs 2025, www.tech-policy.press/when-we-are-no-longer-needed-emerging-elites-tech-trillionaires-and-thedecline-of-democracy .
- Courtney C. Radsch, “Gazetecilik Yapay Zeka’dan Kurtulabilir mi?” Brookings Enstitüsü, 25 Mart 2024, www.brookings.edu/articles/can-journalism-survive-ai .
- Casey Newton, “Yapay Zeka Botları Wikipedia’yı Nasıl Boğuyor?”, Platformer , 1 Nisan 2025, www.platformer.news/wikipedia-ai-bot-traffic-costs-plan ; Nic Newman ve Federica Cherubini, “Gazetecilik, Medya ve Teknoloji Trendleri ve 2025 Tahminleri.”, Reuters Enstitüsü, 9 Ocak 2025, https://reutersinstitute.politics.ox.ac.uk/journalism-media-andtechnology-trends-and-predictions-2025 .
- Michael M. Grynbaum ve Ryan Mac, “The Times, Telif Hakkıyla Korunan Eserlerin Yapay Zeka Tarafından Kullanımı Nedeniyle OpenAI ve Microsoft’a Dava Açtı”, New York Times , 27 Aralık 2023, www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html .
- Ilia Shumailov ve diğerleri, “Yapay Zeka Modelleri, Yinelemeli Olarak Oluşturulan Veriler Üzerinde Eğitildiğinde Çöküyor”, Nature 631, no. 8022 (2024): 755–59, www.nature.com/articles/s41586-024-07566-y .
- Parshin Shojaee ve diğerleri, “Düşünme Yanılsaması: Problem Karmaşıklığı Merceğinden Muhakeme Modellerinin Güçlü ve Sınırlı Yönlerini Anlamak”, Apple, Haziran 2025, https://machinelearning.apple.com/research/illusion-of-thinking .
- Kylie Robison ve Paige Oamek, “Elon Musk’ın Grok Yapay Zekası ‘Beyaz Soykırımı’ Hakkında Konuşmayı Bırakamıyor” Wired , 14 Mayıs 2025, www.wired.com/story/grok-white-genocideelon-musk .
- James T. Areddy ve Isabella Simonetti, “DeepSeek’in Chatbot’u ABD’li Rakipleri Gibi Çalışıyor – Ta ki Tiananmen Hakkında Sorular Sorana Kadar”, Wall Street Journal , 30 Ocak 2025, www.wsj.com/tech/ai/deepseek-chatgpt-tiananmen-square-efcd9938 .
https://muse.jhu.edu/pub/1/article/970355