1. Yapay Zeka Demokrasiyi Nasıl Tehdit Ediyor?
Sarah Kreps / Doug Kriner / Ekim 2023
Özet: Üretken yapay zekânın patlayıcı yükselişi gazeteciliği, finansı ve tıbbı halihazırda dönüştürüyor, ancak siyaset üzerinde de yıkıcı bir etkiye sahip olabilir. Örneğin, bir sohbet robotuna karmaşık bir bürokraside nasıl ilerleyeceğini sormak veya seçilmiş bir yetkiliye mektup yazmasına yardımcı olmak, toplumsal katılımı artırabilir. Ancak, aynı teknoloji -büyük ölçekte dezenformasyon ve yanlış bilgi üretme potansiyeliyle- demokratik temsili engelleme, demokratik hesap verebilirliği baltalama ve toplumsal ve siyasi güveni zedeleme tehdidinde bulunmaktadır. Bu makale, bu alanların her birindeki tehdidin kapsamını analiz etmekte ve üretilen içeriği tanımlamak için kullanılan sinir ağları, üretken yapay zekâ platformlarının özdenetimi ve hem kamuoyu hem de seçkinler nezdinde daha fazla dijital okuryazarlık gibi bu kötüye kullanımlar için olası engelleri tartışmaktadır.
Tanıtılmasından sadece bir ay sonra, üretken yapay zeka (YZ) sohbet robotu ChatGPT, aylık 100 milyon kullanıcıya ulaşarak tarihin en hızlı büyüyen uygulaması oldu. Bağlam olarak, artık herkesin bildiği bir video akışı hizmeti olan Netflix’in aylık bir milyon kullanıcıya ulaşması üç buçuk yıl sürdü. Ancak Netflix’in aksine, ChatGPT’nin hızlı yükselişi ve iyi ya da kötü potansiyeli önemli tartışmalara yol açtı. Öğrenciler aracı araştırma veya yazı yazmak için kullanabilecek mi, daha doğrusu kötüye kullanabilecek mi? Gazetecileri ve kodlayıcıları işsiz mi bırakacak? New York Times’ın bir köşe yazısında ifade edildiği gibi, kitlesel, sahte girdilerin demokratik temsili etkilemesine olanak sağlayarak “demokrasiyi ele mi geçirecek”? 1 Ve en temelde (ve kıyamet gibi), yapay zekadaki gelişmeler insanlık için gerçekten varoluşsal bir tehdit oluşturabilir mi? 2
Yeni teknolojiler, farklı büyüklük ve aciliyette yeni sorular ve endişeler ortaya çıkarıyor. Örneğin, yeni içerik üretebilen yapay zeka olan üretken yapay zekânın varoluşsal bir tehdit oluşturduğu korkusu ne makul bir şekilde yakın, ne de mutlaka makul. Nick Bostrom’un, ataçları optimize etmek üzere programlanmış bir makinenin bu hedefe ulaşmasının önündeki her şeyi ortadan kaldırdığı ataç senaryosu, henüz gerçek olma yolunda değil. 3 Çocukların veya üniversite öğrencilerinin yapay zekâ araçlarını kısayol olarak kullanıp kullanmadığı değerli bir pedagojik tartışmadır, ancak uygulamalar arama motorlarına daha sorunsuz bir şekilde entegre oldukça bu tartışmanın kendi kendine çözülmesi gerekir. Üretken yapay zekânın istihdam üzerindeki sonuçlarının, ekonomiler karmaşık olduğundan ve yapay zekâ kaynaklı iş kayıplarının net etkisini sektör kazanımlarından ayırmayı zorlaştırdığından, nihayetinde karara bağlanması zor olacaktır. Ancak demokrasi üzerindeki potansiyel sonuçlar ani ve ciddidir. Üretken yapay zekâ, demokratik yönetişimin üç temel sütununu tehdit etmektedir: temsil, hesap verebilirlik ve nihayetinde bir siyasi sistemdeki en önemli değer olan güven.
Üretken yapay zekanın en sorunlu yönü, göz önünde saklanarak, medya ortamını, interneti ve siyasi iletişimi en iyi ihtimalle anlamsız saçmalıklarla, en kötü ihtimalle de yanlış bilgilerle doldurabilecek muazzam miktarda içerik üretmesidir. Hükümet yetkilileri için bu, seçmen duygularını anlama çabalarını baltalayarak demokratik temsilin kalitesini tehdit eder. Seçmenler içinse, seçilmiş yetkililerin ne yaptığını ve eylemlerinin sonuçlarını izleme çabalarını tehdit ederek demokratik hesap verebilirliği aşındırır. Böyle bir medya ortamında makul bir bilişsel koruyucu önlem, hiçbir şeye inanmamak olurdu; bu, canlı demokrasiyle çelişen ve toplumsal güveni zedeleyen bir nihilizmdir. Nesnel gerçeklik medya söyleminden daha da uzaklaştıkça, tamamen medyadan kopmayan seçmenler, partizanlık gibi diğer sezgilere daha da fazla güvenmeye başlayacak ve bu da kutuplaşmayı daha da kötüleştirip demokratik kurumlara vurgu yapacaktır.
Demokratik Temsile Yönelik Tehditler
Robert Dahl’ın 1972’de yazdığı gibi, demokrasi “hükümetin vatandaşlarının tercihlerine sürekli olarak duyarlı olmasını” gerektirir. 4 Ancak seçilmiş yetkililerin seçmenlerinin tercihlerine duyarlı olabilmeleri için öncelikle bu tercihleri ayırt edebilmeleri gerekir. (En azından şimdilik) yapay zekâ tarafından üretilen içeriklerin manipülasyonundan büyük ölçüde muaf olan kamuoyu yoklamaları, seçilmiş yetkililere seçmenlerinin tercihlerine dair bir pencere sunar. Ancak çoğu vatandaş temel siyasi bilgiye bile sahip değildir ve politikaya özgü bilgi seviyeleri muhtemelen daha da düşüktür. 5 Bu nedenle, yasa koyucuların belirli bir politika konusunda güçlü görüşlere sahip seçmenlere ve bu konunun kendileri için son derece önemli olduğu kişilere en duyarlı olmak için güçlü teşvikleri vardır. Yazılı yazışmalar, seçilmiş yetkililerin özellikle belirli bir konuda en yoğun şekilde harekete geçenlerin tercihlerini ölçmek için bölgelerinin nabzını tutmalarının uzun zamandır merkezinde yer almaktadır. 6
Ancak, üretken yapay zekâ çağında, elektronik iletişimin acil politika konuları hakkında gönderdiği sinyaller son derece yanıltıcı olabilir. Teknolojik gelişmeler artık kötü niyetli aktörlerin, sayısız sorunun herhangi bir tarafında yer alan benzersiz mesajlar oluşturarak büyük ölçekte sahte “seçmen hissiyatı” yaratmalarına olanak tanıyor. Eski teknolojiye rağmen, yasa koyucular insan tarafından yazılan iletişim ile makine tarafından üretilen iletişim arasında ayrım yapmakta zorlanıyordu.
2020 yılında Amerika Birleşik Devletleri’nde yürütülen bir saha deneyinde, altı farklı konu hakkında savunuculuk mektupları yazdık ve ardından bu mektupları, o dönemin en gelişmiş üretken yapay zeka modeli GPT-3’ü yüzlerce sol ve sağ kanat savunuculuk mektubu yazması için eğitmek amacıyla kullandık. 7.200 eyalet milletvekiline rastgele yapay zeka ve insan eliyle yazılmış mektuplar, toplamda yaklaşık 35.000 e-posta gönderdik. Ardından, milletvekillerinin makine tarafından yazılmış çağrıları ne ölçüde ayırt edebildiklerini (ve dolayısıyla bunlara ne ölçüde yanıt vermediklerini) değerlendirmek için yanıt oranlarını insan eliyle yazılmış ve yapay zeka tarafından oluşturulmuş yazışmalarla karşılaştırdık. Üç konuda, yapay zeka ve insan eliyle yazılmış mesajlara verilen yanıt oranları istatistiksel olarak ayırt edilemezdi. Diğer üç konuda, yapay zeka tarafından oluşturulmuş e-postalara verilen yanıt oranları daha düşüktü; ancak ortalama olarak yalnızca %2 oranında. 7 Bu, binlerce benzersiz iletişimi kolayca üretebilen kötü niyetli bir aktörün, yasa koyucuların seçmenleri için hangi konuların en önemli olduğuna ve seçmenlerin belirli bir konu hakkında nasıl hissettiklerine ilişkin algılarını potansiyel olarak çarpıtabileceğini göstermektedir.
Aynı şekilde, üretken yapay zekâ, vatandaşların düzenleyici devletin eylemlerini etkilemeye çalışabilecekleri kamuoyu yorumlama sürecini geçersiz kılarak demokratik temsilin kalitesine çifte darbe vurabilir. Yasama organları, idari kurumlara yalnızca maddi uzmanlık gerektiren teknik sorunları (örneğin, havada ve suda izin verilen kirletici seviyelerini belirlemek) çözmek için değil, aynı zamanda değerler hakkında daha geniş yargılarda bulunmak için de (örneğin, halk sağlığını korumak ile ekonomik büyümeyi gereksiz yere kısıtlamamak arasındaki kabul edilebilir uzlaşmalar) önemli bir takdir yetkisi vererek, kanunları zorunlu olarak geniş kapsamlı bir şekilde yazarlar. 8 Dahası, yoğun partizan kutuplaşmasının ve acil politika öncelikleri konusunda sık sık yasa koyucu çıkmazının yaşandığı bir dönemde, ABD başkanları politika gündemlerini idari kural koyma yoluyla ilerletmeye giderek daha fazla yönelmektedir.
Politika oluşturma yetkisinin seçilmiş temsilcilerden seçilmemiş bürokratlara kaydırılması, demokrasi açığı endişelerini gündeme getiriyor. ABD Yüksek Mahkemesi, Batı Virginia – EPA (2022) davasında, kurumların Kongre’den açık yasal yetki almadan politikalarda önemli değişiklikler yapma yetkisine sahip olmadığını savunan “büyük sorular” doktrinini açıklayıp kanunlaştırarak bu endişeleri dile getirmiştir. Mahkeme, bekleyen Loper Bright Enterprises – Raimondo davasında daha da ileri giderek, kurumlara yaklaşık otuz yıldır belirsiz kongre tüzüklerini yorumlama konusunda geniş bir yetki veren ve böylece düzenleyici süreç aracılığıyla politika değişikliği üzerindeki kısıtlamaları daha da sıkılaştıran Chevron doktrinini bozabilir .
Ancak herkes düzenleyici sürecin demokratik olmadığı konusunda hemfikir değil. Bazı akademisyenler, kamuoyunun bildirimi ve yorum süreci boyunca garantili kamu katılımı ve şeffaflık fırsatlarının “canlandırıcı derecede demokratik” olduğunu savunuyor 9 ve süreci “özellikle karar alma süreçlerinin şeffaf bir şekilde yürütülmesi ve herkese eşit erişim sağlanması anlamında demokratik olarak hesap verebilir” olarak övüyorlar. 10 Dahası, ABD hükümetinin 2002’de elektronik kural koyma (e-kural koyma) programının ortaya çıkışı, vatandaş girdisine yönelik engelleri azaltarak “daha iyi düzenleyici kararlar teşvik etmek için . . . kamu katılımını artırmayı” vaat ediyordu. 11 Elbette, kamuoyu yorumları her zaman, genellikle büyük ölçüde, önerilen bir kuralın sonucunda en çok risk altında olan çıkarlara doğru kaymıştır ve katılım engellerini azaltmasına rağmen, e-kural koyma bu temel gerçeği değiştirmemiştir. 12
Kusurlarına rağmen, halkın kural koyma sürecine doğrudan ve açık katılımı, bürokratik eylemler yoluyla politika değişikliğinin demokratik meşruiyetini güçlendirmeye yardımcı oldu. Ancak kötü niyetli aktörlerin, belirli bir gündemi ilerletmek için sınırsız sayıda benzersiz yorumla e-kural koyma platformlarını doldurmak için üretken yapay zekâyı kullanma becerisi, kurumların gerçek kamu tercihlerini öğrenmesini neredeyse imkansız hale getirebilir. İlk (ve başarısız) bir test vakası, 2017’de, botların kurallarda önerilen değişiklikler hakkındaki açık yorum döneminde ağ tarafsızlığının kaldırılmasını savunan sekiz milyondan fazla yorumla Federal İletişim Komisyonu’nu doldurmasıyla ortaya çıktı. 13 Ancak bu “astroturfing”, yorumların yüzde 90’ından fazlasının benzersiz olmaması nedeniyle tespit edildi ve bu, yürürlükten kaldırma için gerçek bir taban desteği yerine yanıltmaya yönelik koordineli bir çaba olduğunu gösteriyordu. Yapay zekâ teknolojisindeki çağdaş gelişmeler bu sınırlamayı kolayca aşabilir ve kurumların hangi yorumların ilgili paydaşların tercihlerini gerçekten temsil ettiğini tespit etmesini son derece zorlaştırır.
Demokratik Hesap Verebilirliğe Yönelik Tehditler
Sağlıklı bir demokrasi, vatandaşların hükümet yetkililerini eylemlerinden sorumlu tutabilmelerini de gerektirir; özellikle de özgür ve adil seçimler yoluyla. Ancak sandık hesap verebilirliğinin etkili olabilmesi için, seçmenlerin temsilcileri tarafından kendi adlarına gerçekleştirilen eylemler hakkında bilgiye erişebilmeleri gerekir. 14 Seçmenlerin uzun süredir siyasi bilgi edinmek için güvendiği kitle iletişim araçlarındaki taraflı önyargının seçim sonuçlarını etkileyebileceği endişesi uzun zamandır devam etmektedir, ancak üretken yapay zeka seçim bütünlüğü için çok daha büyük bir tehdit oluşturmaktadır.
Bilindiği üzere, yabancı aktörler 2016 ABD başkanlık seçimlerini etkilemek için koordineli bir çabayla bir dizi yeni teknolojiyi kullandılar. 2018 tarihli bir Senato İstihbarat Komitesi raporunda şunlar belirtiliyordu:
Amerikalı gibi görünen bu (Rus) ajanlar, hedefli reklamlar, kasıtlı olarak sahte haber makaleleri, kendi ürettikleri içerikler ve sosyal medya platformu araçları kullanarak Amerika Birleşik Devletleri’ndeki on milyonlarca sosyal medya kullanıcısıyla etkileşime girdiler ve onları aldatmaya çalıştılar. Bu kampanya, Amerikalıları toplumsal, ideolojik ve ırksal farklılıklar temelinde kutuplaştırmayı amaçladı, gerçek dünya olaylarını kışkırttı ve yabancı bir hükümetin ABD başkanlık seçimlerinde Rusya’nın favori adayına gizli desteğinin bir parçasıydı. 15
Kapsam ve ölçek açısından eşi benzeri görülmemiş olsa da, etki kampanyasındaki birkaç kusur etkisini sınırlamış olabilir. 16 Rus ajanların sosyal medya paylaşımlarında, ana dili İngilizce olan birinin yapmayacağı ince ama fark edilir dil bilgisi hataları vardı; yanlış yerleştirilmiş veya eksik bir makale gibi; bunlar paylaşımların sahte olduğunun açık işaretleriydi. Ancak ChatGPT, her kullanıcıyı ana dili İngilizce olan biriyle eşdeğer kılıyor. Bu teknoloji halihazırda tamamen spam siteleri oluşturmak ve siteleri sahte yorumlarla doldurmak için kullanılıyor. Teknoloji sitesi The Verge, “haftada 200 ila 250 makale” üretebilecek bir “AI editörü” arayan bir iş ilanı yayınladı; bu da editörün “yenile” düğmesine tıklamasıyla akıcı İngilizceyle büyük miktarda içerik üretebilen üretken AI araçları aracılığıyla işin yapılacağını açıkça ima ediyor. 17 Potansiyel siyasi uygulamalar sayısızdır. Son araştırmalar, AI tarafından üretilen propagandanın, insanlar tarafından yazılan propaganda kadar inandırıcı olduğunu gösteriyor. 18 Bu, mikro hedefleme için yeni kapasitelerle birleştiğinde, dezenformasyon kampanyalarında devrim yaratabilir ve bunları 2016 seçimlerini etkileme çabalarından çok daha etkili hale getirebilir. 19 Sürekli bir hedefli yanlış bilgi akışı, seçmenlerin seçilmiş yetkililerin eylem ve performanslarını nasıl algıladıklarını o kadar çarpıtabilir ki, seçimler gerçek bir hesap verebilirlik mekanizması sağlamayı bırakabilir; çünkü insanların neye oy verdiklerinin öncülü bile gerçekte şüphelidir. 20
Demokratik Güvene Yönelik Tehditler
Üretken yapay zeka alanındaki gelişmeler, kötü niyetli aktörlerin belirli demografik gruplara ve hatta bireylere hitap etmek üzere mikro hedefli içerikler de dahil olmak üzere büyük ölçekte yanlış bilgi üretmesine olanak tanıyabilir. Sosyal medya platformlarının yaygınlaşması, yanlış bilginin belirli kitlelere etkili bir şekilde iletilmesi de dahil olmak üzere zahmetsizce yayılmasına olanak tanır. Araştırmalar, siyasi yelpazedeki okuyucuların insan yapımı ve yapay zeka tarafından üretilen içerikler arasında ayrım yapamamasına (hepsini makul bulmasına) rağmen, yanlış bilginin okuyucuların fikirlerini değiştirmeyeceğini göstermektedir. 21 Siyasi ikna, özellikle kutuplaşmış bir siyasi ortamda zordur. 22 Bireysel görüşler oldukça yerleşik olma eğilimindedir ve insanların önceki duygularını değiştirebilecek çok az şey vardır.
Sahte içerikler (metin, resim ve video) çevrimiçi ortamda yaygınlaştıkça, insanların neye inanacaklarını bilememeleri ve dolayısıyla tüm bilgi ekosistemine güvenmemeleri riski vardır. Medyaya duyulan güven zaten düşüktür ve sahte içerik üretebilen araçların yaygınlaşması bu güveni daha da aşındıracaktır. Bu da, hükümete duyulan güvenin tehlikeli derecede düşük seviyelerini daha da zayıflatabilir. Toplumsal güven, demokratik toplumları bir arada tutan temel bir yapıştırıcıdır. Yurttaş katılımını ve siyasi katılımı besler, siyasi kurumlara olan güveni güçlendirir ve demokratik gerilemeye ve otoriterliğe karşı önemli bir siper olan demokratik değerlere saygıyı teşvik eder. 23
Güven, birden fazla yönde işler. Siyasi elitler için duyarlılık, aldıkları mesajların seçmen tercihlerini meşru bir şekilde temsil ettiğine ve belirli bir bakış açısını savunmak uğruna kamuoyunu çarpıtmaya yönelik koordineli bir kampanya yürütmediğine güvenmeyi gerektirir. “Astroturfing” vakaları siyasette yeni bir şey değil; Amerika Birleşik Devletleri’ndeki örnekleri en azından 1950’lere kadar uzanıyor. 24 Ancak, yapay zekadaki gelişmeler, bu tür çabaları yaygınlaştırma ve tespit edilmesini zorlaştırma tehdidi oluşturuyor.
Vatandaşlar için güven, siyasi katılımı ve etkileşimi motive edebilir ve demokratik kurum ve uygulamalara yönelik tehditlere karşı direnci teşvik edebilir. Amerikalıların hükümete olan güvenindeki son yarım yüzyıldaki dramatik düşüş, ABD siyasetinde en çok belgelenen gelişmelerden biridir. 25 Bu erozyona birçok faktör katkıda bulunmuş olsa da, medyaya güven ve hükümete güven birbiriyle yakından bağlantılıdır. 26 Vatandaşları, doğruluğu şüpheli yapay zeka tarafından oluşturulmuş içeriklerle bombardımana tutmak, medyaya olan güveni ciddi şekilde tehdit edebilir ve hükümete duyulan güven üzerinde ciddi sonuçlar doğurabilir.
Tehditleri Azaltma
Sorunun çerçevesini çizmede motivasyonları ve teknolojiyi anlamak önemli bir ilk adım olsa da, bir sonraki adımın önleyici tedbirler formüle etmek olduğu açıktır. Bu tedbirlerden biri, yapay zekâ üreten aynı makine öğrenme modellerini eğitmek ve yapay zekâ tarafından üretilen içeriği tespit etmek için kullanmaktır. Yapay zekâda metin oluşturmak için kullanılan sinir ağları, aynı zamanda bu içeriği üreten dil, kelime ve cümle yapılarını da “bilir” ve bu nedenle yapay zekâ tarafından üretilen metin ile insan eliyle yazılmış metin arasındaki kalıpları ve ayırt edici özellikleri ayırt etmek için kullanılabilir. Yapay zekâ tespit araçları hızla yaygınlaşıyor ve teknolojiye uyum sağlamaları gerekecek, ancak öğretmenlerin sınıfta intihal tespit etmek için kullandıklarına benzer “Turnitin” tarzı bir model kısmi bir çözüm sağlayabilir. Bu araçlar, esasen yapay zekâ tarafından üretilen metnin ayırt edici özellikleri olan metin içindeki kalıpları belirlemek için algoritmalar kullanır, ancak araçların doğruluk ve güvenilirlikleri yine de farklılık gösterecektir.
Daha da önemlisi, bu dil modellerini oluşturmaktan sorumlu platformlar, sosyal medya platformlarının yıllar süren bir gerçeğin farkına varmasının giderek daha fazla farkına varıyor: Ürettikleri içerik, bu içeriğin nasıl çerçeveleneceği ve hatta ne tür içeriğin yasaklanacağı konusunda bir sorumlulukları var. ChatGPT’ye üretken yapay zekanın nükleer komuta ve kontrole karşı nasıl kötüye kullanılabileceği hakkında soru sorduğunuzda, model “Üzgünüm, bu konuda yardımcı olamam” yanıtını veriyor. ChatGPT’nin yaratıcısı olan OpenAI, algoritmalarında kodlanmış değerleri demokratikleştirmek için harici araştırmacılarla da çalışıyor. Bu değerler arasında hangi konuların arama çıktıları için yasak olması gerektiği ve seçilmiş yetkililerin siyasi pozisyonlarının nasıl çerçeveleneceği de yer alıyor. Nitekim, üretken yapay zeka daha yaygın hale geldikçe, bu platformların yalnızca teknolojiyi yaratmakla kalmayıp bunu etik ve politik olarak bilgilendirilmiş bir değerler kümesiyle yapma sorumluluğu da var. Özellikle kutuplaşmış, aşırı partizan toplumlarda neyin etik olduğuna kimin karar vereceği sorusu yeni değil. Sosyal medya platformları yıllardır bu tartışmaların merkezinde yer alıyor ve şimdi de üretken yapay zeka platformları benzer bir durumda. Seçilmiş kamu görevlileri, en azından hesap verebilir ve şeffaf algoritmalar geliştirmek için bu özel şirketlerle yakın bir şekilde çalışmaya devam etmelidir. Yedi büyük üretken yapay zeka şirketinin, Biden Yönetimi ile koordinasyon halinde gönüllü yapay zeka koruma önlemlerini taahhüt etme kararı, doğru yönde atılmış bir adımdır.
Son olarak, dijital okuryazarlık kampanyaları, daha bilinçli bir tüketici kitlesi oluşturarak üretken yapay zekânın olumsuz etkilerine karşı korunmada rol oynayabilir. Tıpkı sinir ağlarının üretken yapay zekânın nasıl konuşup yazdığını “öğrenmesi” gibi, bireysel okuyucular da öğrenebilir. Çalışmamızda eyalet milletvekillerine amaçları ve tasarımı hakkında bilgi verdiğimizde, bazıları seçmenlerinin nasıl yazdığını bildikleri için yapay zekâ tarafından oluşturulan e-postaları tespit edebildiklerini söyledi; Batı Virginia veya New Hampshire’dan bir seçmenin standart diline aşinalar. Aynı tür bir ayırt etme yeteneği, çevrimiçi içerik okuyan Amerikalılar için de mümkündür. ChatGPT gibi büyük dil modelleri, belirli bir formüle dayalı yazım tarzına sahiptir; belki de beş paragraflık makale sanatını biraz fazla öğrenmişlerdir.
“Amerika Birleşik Devletleri’nin füze siloları nerede?” sorusunu sorduğumuzda ChatGPT her zamanki gibi sıradan bir cevap verdi: “Amerika Birleşik Devletleri’nin, başta ülkenin orta ve kuzey kesimleri olmak üzere birçok eyalette füze siloları bulunmaktadır. Füze siloları, ABD nükleer caydırıcılık stratejisinin bir parçası olarak kıtalararası balistik füzelere (ICBM’ler) ev sahipliği yapmaktadır. Füze silolarının belirli konumları ve sayıları, operasyonel değişiklikler ve modernizasyon çalışmaları nedeniyle zaman içinde değişiklik gösterebilir.”
Bu yanıtta yanlış bir şey yok, ancak ChatGPT’yi düzenli olarak kullanan herkes için oldukça tahmin edilebilir. Bu örnek, yapay zeka modellerinin sıklıkla ürettiği dilin bir örneğidir. Konu ne olursa olsun, içerik çıktılarını incelemek, insanların sahte içeriğe işaret eden ipuçlarını fark etmelerine yardımcı olabilir.
Daha genel olarak, halihazırda yaygınlaşan dijital okuryazarlık tekniklerinden bazıları, yapay zekâ tarafından üretilen metin, video ve görsellerin hızla yaygınlaştığı bir dünyada muhtemelen geçerli olacaktır. Herkesin, farklı medya kuruluşlarındaki dijital içeriklerin gerçekliğini veya gerçeğe uygunluğunu doğrulaması ve şüpheli görünen her şeyi, örneğin Balenciaga kabarık paltolu papanın viral (sahte de olsa) görselini çapraz kontrol ederek, derin sahte mi yoksa gerçek mi olduğunu belirlemesi standart bir uygulama olmalıdır. Bu tür uygulamalar, örneğin bir seçim döneminde Facebook’ta olduğu gibi, siyasi bir bağlamda yapay zekâ tarafından üretilen materyallerin ayırt edilmesine de yardımcı olmalıdır.
Ne yazık ki internet, hâlâ büyük bir doğrulama yanlılığı makinesi olmaya devam ediyor. Bir kişinin siyasi görüşleriyle uyumlu olduğu için makul görünen bilgiler, o kişiyi haberin doğruluğunu kontrol etmeye daha az yöneltebilir. Kolayca sahte içerik üretilen bir dünyada, birçok kişi siyasi nihilizm (yani, kendi partizanları dışında hiçbir şeye veya hiç kimseye inanmama) ile sağlıklı şüphecilik arasında ince bir çizgide yürümek zorunda kalabilir. Nesnel gerçeklerden veya en azından onu haberlerden ayırt etme yeteneğinden vazgeçmek, demokratik toplumun dayanması gereken güveni yerle bir edecektir. Ancak artık “görmenin inanmaktır” olduğu bir dünyada yaşamıyoruz. Bireyler medya tüketiminde, okuma ve izlemede “güven ama doğrula” yaklaşımını benimsemeli, ancak materyalin güvenilirliğini sağlama konusunda disiplin uygulamalıdır.
Üretken yapay zekâ gibi yeni teknolojiler, topluma ekonomik, tıbbi ve hatta muhtemelen politik olarak muazzam faydalar sağlamaya hazır. Nitekim, yasa koyucular yapay zekâ araçlarını sahte içerikleri tespit etmek ve seçmenlerinin endişelerini sınıflandırmak için kullanabilirler; bu ikisi de yasa koyucuların politikalarında halkın iradesini yansıtmalarına yardımcı olacaktır. Ancak yapay zekâ aynı zamanda siyasi tehlikeler de doğurmaktadır. Ancak, potansiyel risklerin farkında olarak ve olumsuz etkilerini azaltmak için önlemler alarak demokratik toplumları koruyabilir ve hatta güçlendirebiliriz.
Sarah Kreps: Sarah Kreps, Cornell Üniversitesi Hükümet Bölümü’nde John L. Wetherill Profesörü, hukuk alanında yardımcı doçent ve Teknoloji Politikası Enstitüsü’nün müdürüdür.
Doug Kriner / Doug Kriner, Cornell Üniversitesi Hükümet Bölümü’nde Amerikan Kurumları alanında Clinton Rossiter Profesörüdür.
NOTLAR
- Nathan E. Sanders ve Bruce Schneier, “ChatGPT Demokrasiyi Nasıl Ele Geçiriyor”, New York Times , 15 Ocak 2023, www.nytimes.com/2023/01/15/opinion/ai-chatgpt-lobbying-democracy.html .
- Kevin Roose, “Yapay Zeka ‘Yok Olma Tehlikesi’ Taşıyor, Sektör Liderleri Uyarıyor”, New York Times , 30 Mayıs 2023, www.nytimes.com/2023/05/30/technology/ai-threat-warning.html .
- Alexey Turchin ve David Denkenberger, “Yapay Zeka ile Bağlantılı Küresel Felaket Risklerinin Sınıflandırılması”, AI & Society 35 (Mart 2020): 147–63.
- Robert Dahl, Poliarşi: Katılım ve Muhalefet (New Haven: Yale University Press, 1972), 1.
- Michael X. Delli Carpini ve Scott Keeter, Amerikalılar Politika Hakkında Ne Biliyor ve Neden Önemli? (New Haven: Yale University Press, 1996); James Kuklinski ve diğerleri, “’Sadece Gerçekler Hanımefendi’: Siyasi Gerçekler ve Kamuoyu”, Amerikan Siyaset ve Sosyal Bilimler Akademisi Yıllıkları 560 (Kasım 1998): 143–54; Martin Gilens, “Siyasi Cehalet ve Toplu Politika Tercihleri”, Amerikan Siyaset Bilimi Dergisi 95 (Haziran 2001): 379–96.
- Andrea Louise Campbell, Politikalar Vatandaşları Nasıl Yaratır: Kıdemli Siyasi Aktivizm ve Amerikan Refah Devleti (Princeton: Princeton University Press, 2003); Paul Martin ve Michele Claibourn, “Vatandaş Katılımı ve Kongre Duyarlılığı: Katılımın Önemli Olduğuna Dair Yeni Kanıtlar”, Yasama Çalışmaları Dergisi 38 (Şubat 2013): 59–81.
- Sarah Kreps ve Doug L. Kriner, “Yeni Teknolojilerin Demokratik Temsil Üzerindeki Potansiyel Etkisi: Bir Saha Deneyinden Elde Edilen Kanıtlar”, Yeni Medya ve Toplum (2023), https://doi.org/10.1177/14614448231160526 .
- Elena Kagan, “Başkanlık Yönetimi”, Harvard Hukuk Dergisi 114 (Haziran 2001): 2245–2353.
- Michael Asimow, “McNollgast’ı Sınırlara Zorlamak: Düzenleyici Maliyetler Sorunu”, Hukuk ve Çağdaş Sorunlar 57 (Kış 1994): 127, 129.
- Kenneth F. Warren, Siyasi Sistemde İdari Hukuk (New York: Routledge, 2018).
- Federal E-Kural Yapımının Durumu ve Geleceği Komitesi, Amerikan Barolar Birliği, “Potansiyelin Gerçekleştirilmesi: Federal E-Kural Yapımının Geleceği”, 2008, https://scholarship.law.cornell.edu/cgi/viewcontent.cgi?article=2505&context=facpub .
- Jason Webb Yackee ve Susan Webb Yackee, “İş Dünyasına Yönelik Bir Önyargı mı? Çıkar Gruplarının ABD Bürokrasisi Üzerindeki Etkisini Değerlendirmek”, Siyaset Dergisi 68 (Şubat 2006): 128–39; Cynthia Farina, Mary Newhart ve Josiah Heidt, “Kural Koyma ve Demokrasi: Önemli Kamu Katılımını Yargılamak ve Teşvik Etmek”, Michigan Çevre ve İdari Hukuk Dergisi 2, sayı 1 (2013): 123–72.
- Edward Walker. “Milyonlarca Sahte Yorumcu FCC’den Ağ Tarafsızlığını Sonlandırmasını İstedi: ‘Astroturfing’ Bir İş Modelidir”, Washington Post Monkey Cage blogu, 14 Mayıs 2021, www.washingtonpost.com/politics/2021/05/14/millions-fake-commenters-asked-fcc-end-net-neutrality-astroturfing-is-business-model/ .
- Adam Przeworksi, Susan C. Stokes ve Bernard Manin, editörler, Demokrasi, Hesap Verebilirlik ve Temsil (New York: Cambridge University Press, 1999).
- ABD Senatosu İstihbarat Seçme Komitesi’nin Rusya’nın Aktif Tedbir Kampanyaları ve 2016 ABD Seçimlerine Müdahalesi Hakkındaki Raporu, Senato Raporu 116–290, www.intelligence.senate.gov/publications/report-select-committee-intelligence-united-states-senate-russian-active-measures .
- 2016 seçimlerindeki yanlış bilgilendirmenin potansiyel olarak sınırlı etkileri hakkında daha genel olarak Andrew M. Guess, Brendan Nyhan ve Jason Reifler, “2016 ABD Seçimlerinde Güvenilmez Web Sitelerine Maruz Kalma”, Nature Human Behavior 4 (2020): 472–80’e bakınız.
- James Vincent, “Yapay Zeka Eski Web’i Öldürüyor ve Yeni Web Doğuyor”, The Verge , 26 Haziran 2023, www.theverge.com/2023/6/26/23773914/ai-large-language-models-data-scraping-generation-remaking-web .
- Josh Goldstein ve diğerleri, “Yapay Zeka İkna Edici Propaganda Yazabilir mi?” başlıklı çalışma makalesi, 8 Nisan 2023, https://osf.io/preprints/socarxiv/fp87b .
- Sarah Kreps, “Çevrimiçi Yanlış Bilgilendirmede Teknolojinin Rolü”, Brookings Enstitüsü, Haziran 2020, www.brookings.edu/articles/the-role-of-technology-in-online-misinformation .
- Bu şekilde, yapay zeka tarafından üretilen yanlış bilgiler, görevdeki kişilerin performansı ile seçmen inançları arasındaki ilişki olan “duyarsızlaştırmayı” büyük ölçüde artırabilir ve demokratik hesap verebilirliği zayıflatabilir. Bkz. Andrew T. Little, Keith E. Schnakenberg ve Ian R. Turner, “Motivasyonlu Muhakeme ve Demokratik Hesap Verebilirlik”, American Political Science Review 116 (Mayıs 2022): 751–67.
- Sarah Kreps, R. Miles McCain ve Miles Brundage, “Uydurulmaya Uygun Tüm Haberler,” Deneysel Siyaset Bilimi Dergisi 9 (İlkbahar 2022): 104–17.
- Kathleen Donovan ve diğerleri, “Motive Edilmiş Muhakeme, Kamuoyu ve Başkanlık Onayı” Political Behavior 42 (Aralık 2020): 1201–21.
- Mark Warren, ed., Democracy and Trust (New York: Cambridge University Press, 1999); Robert Putnam, Bowling Alone: The Collapse and Revival of American Community (New York: Simon and Schuster, 2000); Marc Hetherington, Why Trust Matters: Declining Political Trust and the Demise of American Liberalism (Princeton: Princeton University Press, 2005); Pippa Norris, ed., Critical Citizens: Global Support for Democratic Governance (New York: Oxford University Press, 1999); Steven Levitsky ve Daniel Ziblatt, How Democracies Die (New York: Crown, 2019).
- Lewis Anthony Dexter, “Kongre Üyeleri Ne Duyuyor: Posta”, Public Opinion Quarterly 20 (İlkbahar 1956): 16–27.
- Diğerlerinin yanı sıra bkz. Pew Araştırma Merkezi, “Hükümete Kamu Güveni: 1958–2022”, 6 Haziran 2022, https://www.pewresearch.org/politics/2023/09/19/public-trust-in-government-1958-2023/ .
- Thomas Patterson, Out of Order (New York: Knopf, 1993); Joseph N. Cappella ve Kathleen Hall Jamieson, “Haber Çerçeveleri, Politik Alaycılık ve Medya Alaycılığı”, Amerikan Siyaset ve Sosyal Bilimler Akademisi Yıllıkları 546 (Temmuz 1996): 71–84.
https://www.journalofdemocracy.org/articles/how-ai-threatens-democracy/
2. Üretken Yapay Zekanın Gerçek Tehlikeleri

Danielle Allen / E. Glen Weyl / Ekim 2023
Belki de zamanımızın en önemli teknolojisi olan Üretken Temel Modeller (GFM’ler), demokratik kurumlar için benzeri görülmemiş zorluklar ortaya koymaktadır. GFM’ler, daha önce hayal bile edilemeyen bir ölçek ve hızda aldatmacaya ve bağlam dışı bilgi paylaşımına olanak sağlayarak, demokrasinin temellerini sarsabilir. Aynı zamanda, modelleri geliştirmek için gereken yatırım ölçeği ve bu gelişme etrafındaki ırk dinamikleri, demokratik olarak hesap vermeyen güçlerin (hem kamu hem de özel) yoğunlaşmasına yol açma tehdidi taşımaktadır. Bu makale, GFM’lerin yükselişinin yol açtığı çöküş ve tekillik tehditlerini incelemektedir.
Mart 2023’te OpenAI, doğal ifadelerin (dil, görüntü ve hatta video dahil) ikna edici kopyalarını üretmek için en gelişmiş bilgisayar programlarından biri olan GPT-4’ü yayınladı. Bu tür programlar “üretici temel modeller” (GFM’ler) olarak bilinir. GPT-4, “yapay genel zeka” yolunda bir atılım oluşturabilir veya oluşturmayabilir, ancak iki şey açıktır: GFM’ler, büyük ölçekli aldatma ve gözetleme yaratma konusunda giderek daha yetenekli hale gelecektir. Ayrıca, yeni etkileşim ve ortak yaratım biçimlerini kolaylaştırabilirler: insanların birbirleriyle, kuruluşlarla ve devletlerle etkileşim kurmaları için yeni yollar; gruplar, dernekler, firmalar ve hükümetler için yeni koordinasyon, planlama ve karar alma yöntemleri; yeni bilgi, iletişim ve kültürel içerik biçimleri. Birçok sosyal, iletişimsel ve politik işlev için giderek daha önemli hale gelecek ve temel toplumsal altyapıya dönüşecekler.
Birçok teknik ve politika liderinin vurguladığı gibi, olası olumsuz uygulamalar “çoğulcu toplumlar” için iki tehdit oluşturabilir: sosyal çeşitlilik koşulları altında faaliyet gösteren özgür ve demokratik toplumlar. Demokratik sistemler, devletin vatandaşları vatandaş olmayanlardan ayırabileceği ve vatandaşların bir “fikir pazarı” temelinde tutarlı görüşler oluşturabileceği gibi temel varsayımlar üzerine kuruludur. İlk tehdit, GFM odaklı aldatmacanın bu varsayımların ve bunlar üzerine inşa edilen kurumların çökmesine yol açabileceğidir. Demokrasilerde, kimlik belirleme, kimlik doğrulama, savunma ve temel fiziksel altyapı sistemleri de dahil olmak üzere “devletin” temel altyapısının gücü ve nihai hesap verebilirliği halkın elinde olmalıdır. Bu kontrolün temel yapı taşları çöktüğünde, sonuç kaos olacaktır.
İkinci tehdit ise, GFM gelişiminin gücü finansal çıkar gruplarının, teknik uzmanların, otoriter rejimlerin veya hatta insan denetiminden bağımsız, kendi kendini kopyalayan bir makine mantığının tekil ellerinde yoğunlaştırabilmesidir. Başka bir yerde de belirttiğimiz gibi, yapay zeka tarafından yakalanabilen ve hatta geride bırakılabilen tekil bir insan zekası kavramı olan “tekillik” kavramı etrafında örgütlenen bir teknoloji geliştirme paradigması, kaçınılmaz olarak, yoğunlaşmış ekonomik ve politik gücün ikinci anlamıyla anlaşılan “tekilliğe” yol açar. 1
“Çöküş” ve “tekillik” tehditleri sırasıyla “kaosa” ve “yoğunlaşmış güce” yol açar. Bunlar, hızlı teknolojik değişimin getirdiği asırlık zorlukların çağdaş karşılıklarıdır: anarşi ve otoriterlik arasında “dar bir koridorda” gezinme ve özgür, çoğulcu toplumların gelişebileceği koşulları sağlama ihtiyacı. 2 Çöküşü (bir süreç sorunu), kaosu (bir sosyal devlet sorunu) ve anarşiyi (bir siyasi biçim sorunu) önlemenin en basit yolları, ilk bakışta otoriteyi yeni teknolojiler üzerinde yoğunlaştırmak veya gelişimi yavaşlatmak gibi görünebilir . Ancak ikincisi , teknik avantajı otoriter rejimlere teslim ederek de olsa otoriteyi yoğunlaştırır. Bu arada, tekillik ve yoğunlaşmış güç sorununa karşı en basit panzehir, açık kaynaklı modellerin (kısmen en son teknolojiye sahip, kaynak yoğun modellere erişim sağlanarak eğitilmiş) ücretsiz ve hızlı bir şekilde dağıtımına izin vermek gibi stratejiler olacaktır; ancak bu stratejiler çöküş ve kaosun nedenlerini hızlandıracaktır. Çoğulcu toplumlar özellikle risk altındadır çünkü çöküş ve tekillikten, kaos ve güç yoğunlaşmasından, anarşi ve otoriterlikten aynı anda kaçınmaları gerekir. Otoriter toplumların ise sadece kaostan kaçınmaları gerekir. Kimlik ve gözetimin istikrarsızlaşmasından tehdit altındadırlar, ancak buna güç yoğunlaşmasıyla karşılık verirlerse temel karakterlerinden hiçbir şey kaybetmezler.
Çöküş ve tekillik, anarşi ve otoriterlik arasındaki uçurumda yol alabilmek için, “çoğulculuk” adı verilen farklı bir teknoloji geliştirme paradigmasına ihtiyacımız var. Bu paradigma, sırasıyla biliş, toplum ve teknoloji hakkındaki üç öncüle dayanmaktadır. Bu öncüller şunlardır: 1) Hem insan hem de makine bilişi çoğuldur; tekilliğe indirgenemeyecek kadar çeşitli biçimlerde ortaya çıkarlar; zekânın en faydalı [Sayfa 148 Sonu] aktivasyonu, zekânın çokluğunu tam olarak harekete geçirir; 2) Toplumlar, çoğulculuğun faydalarını epistemik, kültürel ve ekonomik olarak güçlendirmek için yakalayabildikleri zaman en iyi şekilde gelişirler; 3 ve dolayısıyla 3) zekânın çokluğuna yönelik bir yönelimle ve insan çoğulculuğunun faydalarını ortaya çıkarma hedefiyle geliştirilen “çoğulcu teknolojiler”, insanlığın gelişmesini teşvik etmek için en iyi olasılığı sunar. 4 Teknoloji geliştirme için çoğulculuk paradigmasının kaos ve tekillik tehlikelerinden nasıl kurtulmamıza yardımcı olabileceğini açıklamaya geçmeden önce, tehlikeleri tanımlamamız gerekiyor.
Çöküşten Kaynaklanan Kaos Tehlikesi
Oylamaların özgür ve adil olması için, nüfus sayımında nüfus sayımı yapılmalı ve kayıt sistemi tüm (ve yalnızca) geçerli oyların sayılmasını sağlamalıdır. Vatandaşlar siyasi seçenekleri anlamalı, makul ölçüde bilgilendirilmiş ve yerinde görüşler oluşturabilmeli ve buna göre örgütlenip kendilerini ifade edebilmelidir. Kolektif eylem aynı zamanda, asgari düzeyde dış gözetim altında, benzer düşünen yurttaşlarla fikir alışverişinde bulunabilmeyi de gerektirir. Konuşma ve örgütlenme özgürlükleri ile oy kullanma hakkı, demokrasinin temel özellikleridir.
Bu haklar tek başlarına bu hedeflere ulaşmaz. Varsayımsal olarak, aralıksız, sağır edici bir gürültü tüm sesleri bastırsaydı, hiçbir ifade özgürlüğü bir “fikir pazarı” yaratmazdı. 5 Benzer şekilde, insanların ve kayıtlarının sonsuz sayıda kopyasının, fark edilmeden ve bir ücret karşılığında oluşturulması mümkün hale gelirse, seçimler nasıl güvenli olabilir? Demokrasi yalnızca bilgiye, iletişime ve bunların kullanımını koruyan haklara değil, aynı zamanda bu hakları işlevsel hale getiren teknolojilere de dayanır. Bu tür teknolojiler, demokrasinin temelinin kurucu unsurlarıdır; aşınırlar veya yok edilirlerse, demokrasi çöker ve kaosa yol açar.
Bu nedenle teknolojilerdeki yenilikler, temel demokratik işlevleri altüst etme potansiyeline sahiptir. Demokrasiye yönelik çeşitli riskler arasında en ciddi olanı, Shrey Jain, Zoë Hitzig ve Pamela Mishkin tarafından önerilen bir risk çerçevesi olan “bağlamsal güven” bağlamında ele alınabilir. 6 Çoğulcu bir toplumda, kimlik doğrulama, yanlış ve dezenformasyon ve gizlilik sorunlarının, Helen Nissenbaum’un “bağlamsal bütünlük” olarak adlandırdığı, yani bilginin amaçlanan yorumlama bağlamında uygun şekilde paylaşılmasının farklı ihlalleri olduğunu savunuyorlar. 7 GFM’lerin bilgileri hızlı ve ikna edici bir şekilde yeniden birleştirme ve sunma becerisi, bilginin amaçlanan bağlamının dışında yeni ölçeklerde paylaşılmasını sağlar. Bunun önemli sonuçları vardır.
Öncelikle kimlik doğrulama sorununu ele alalım. Tüm vatandaşlara eşit hak ve yetkiler sağlayan bir sistem olarak demokrasi, benzersiz vatandaşlığın doğrulanmasına dayanır. Modern bağlamlarımızda, vatandaş doğrulama sistemleri çökerse demokrasi sürdürülemez hale gelir. 8 Kimlik doğrulama genellikle üç faktörün birleşimine dayanır: [Sayfa 149 Sonu] olduğunuz şeyler (biyometri), bildiğiniz şeyler (sırlar) ve sahip olduğunuz şeyler (içerikler ve anahtarlar). Şahsen ölçülürse biyometri ve kopyalanamayan fiziksel anahtarların GFM’lerin ilerlemesinden önemli ölçüde etkilenmesi olası değildir. Ancak elektronik olarak çoğaltılabilen veya iletilebilen içeriğe (sürücü belgeleri, para birimi veya pasaportlar gibi) dayalı herhangi bir doğrulama biçiminin önemli ölçüde bozulması muhtemeldir.
Görünüş, ses ve hatta stil açısından son derece ikna edici canlı replikalar daha ucuz hale geliyor. Zamanla giderek daha etkili hale gelen çeşitli dolandırıcılık yöntemlerine güç verecekler. Kimlik doğrulama tehdidi, kimliğimizi kanıtlamak için sırlara daha fazla güvenmemize yol açabilir. Ancak bu sırların bugün olduğundan çok daha sıkı bir şekilde korunması gerekecek. GFM’ler, kamuya açık bilgilere dayanarak sırları çıkarsama konusunda giderek daha iyi hale geliyor. Çoğumuz, örneğin Sherlock Holmes ilkokulumuzu tahmin etmeye çalışsaydı, pek sorun yaşamayacağını düşünürdük. Holmes tarzı dedektifler çeşitli rakiplere düşük maliyetle sunulduğunda, neyin gizli olduğunu yeniden tanımlamak zorunda kalabiliriz.
İkinci olarak, mahremiyeti göz önünde bulundurun. GFM’ler sır saklamayı zorlaştıracağı için mahremiyeti tehdit ederler. Mahremiyeti ihlal etmek isteyenlerin bilişsel sınırlamaları, bugün onu büyük ölçüde koruyan şeydir. Parlak bir beden dili uzmanı veya üst düzey bir istihbarat analisti, özel olarak düşündüğümüz çoğu şeyi öğrenebilir. Ancak bu tür beceriler her zaman nadir, dolayısıyla pahalı ve erişilemez olmuştur. Ancak GFM’ler, sırların keşfini, arabaların uzun mesafeli seyahatleri kolaylaştırması kadar ucuz ve kolay hale getirebilir.
Kimlik doğrulama ve gizliliğe yönelik bu tür tehditler, GFM’lerin neyin gerçek olduğunu değerlendirmeyi nasıl zorlaştıracağının en dikkat çekici örnekleridir. Ancak bağlamın çöküşü, sosyal ortamlarda en sinsi şekilde ortaya çıkabilir. Demokratik yönetim, her zaman bireylerin ve üyesi oldukları sivil toplum kuruluşlarının iç içe geçmiş dokusuna dayanmıştır. Bu tür grupların şikayetlerin giderilmesi için etkili bir şekilde koordine olabilmeleri için ortak görüş, hedef ve planlar oluşturmaları ve bunları dış gözetimden korumaları gerekir. Bireysel vatandaşların yanı sıra muhalif grupların gizliliğini koruma ihtiyacı, Biden yönetimini “Demokrasi için Teknoloji” stratejisinde “gizliliği artıran teknolojilere” öncelik vermeye yöneltmiştir. 9 GFM’ler, iletişimdeki sinyal/gürültü oranını azaltarak ve gizlilik ihlallerini kolaylaştırarak grupları devlet gözetimine veya düşmanlara karşı savunmasız hale getirerek bu korumayı zayıflatabilir.
Son olarak, kimlik doğrulama ve gizlilik (hem kişisel hem de sosyal) zorluklarının ötesinde daha da tehlikeli bir tehlike yatmaktadır. Demokrasiler, vatandaşların en azından kısmen paylaşılan anlayış ufuklarına (gerçekler, değerler ve analitik çerçeveler) sahip olmasına ve ortak eyleme olanak sağlamasına bağlıdır. Ancak GFM’ler paylaşılan bağlamın kurulmasını baltalayabilir. Neal Stephenson’ın 1995 tarihli romanı Elmas Çağı’nda , alt sınıflar kendilerini eğlendiren ancak [Sayfa 150 Sonu] ortak eylemi imkansız kılan kişiselleştirilmiş dijital içerik alırken , yönetici seçkinler sosyal kontrolü koordine edebilmelerini sağlamak için aynı basılı gazeteleri alırlar. 10 Benzer şekilde, GFM’ler tarafından sağlanan içeriğin giderek kişiselleştirilmesi, bilgi manzarasını parçalayacak, bireylerin kendi bilgi evrenlerinde yaşamalarına izin verecek ve istikrarlı demokratik uygulama için gereken paylaşılan anlayışı ulaşılmaz hale getirecektir. Sahte içerik, yaygın güvensizlik ve paylaşılan anlayışın bozulması, demokrasi için kritik olan fikirlerin dolaşımını engellemede sansür kadar etkili olabilir.
Tekillikten Kaynaklanan Otoriterliğin Zararları
Yirmi yılı aşkın süredir, bilgisayar bilimci ve fütürist Ray Kurzweil, teknolojik ilerlemenin o kadar dramatik bir şekilde hızlandığı ve bildiğimiz şekliyle insan yaşamının geri döndürülemez ve kontrol edilemez bir şekilde geride kaldığı bir “tekillik” öngörüyor. 11 Bu metafor, yapay zekâ hakkındaki tartışmaları şekillendirdi ve yapay zekâ, bir şekilde insan zekâsını bir araya getiren ve ardından onu aşan tekil bir zekâ olarak kavramsallaştırıldı. Terim, fizik yasalarının çöktüğü bir uzay-zaman bölgesinden türemiştir. Birçok kişi ayrıca “tekillik” fikrini, toplumsal gücün tekil bir vizyona bağlı birkaç kişinin elinde yoğunlaşması iddiası olarak da algılar. Sonuçta, küçük ve homojen bir seçkinler grubunun egemen olduğu bir geleceği, kendi kendini çoğaltan makineler tarafından kontrol edilen bir gelecekten anlamlı bir şekilde ayıran çok az şey vardır.
Bu iki sonuç, aslında aynı tekilliğin farklı halleridir; tek ve tutarlı bir irade, küresel toplumsal yaşamı düzenler ve egemen kılar; bu irade ister teknik veya mühendislik kastının, ister şirket oligarşisinin, ister otoriter bir ulus devletin, isterse de kendi kendini yöneten bir makinenin iradesi olsun. Bu geleceklerden herhangi biri çoğulculuk ve özyönetimle çelişir. Yine de böyle bir geleceğin bazı özellikleri ortaya çıkıyor gibi görünüyor.
GPT-4 gibi günümüzün önde gelen sistemlerinin geliştirilmesi, aşırı güç yoğunlaşmasına bağlıdır. GPT-4’ün geliştiricisi olan OpenAI’nin yalnızca birkaç yüz çalışanı vardır; çekirdek geliştirme ekibi muhtemelen bunun çok küçük bir kısmıdır. Buna rağmen şirket, Microsoft ve diğer yatırımcılardan on milyarlarca dolar almıştır; GPT-4’ün yalnızca bir eğitim çalışmasının en az 100 milyon ABD dolarına mal olduğu bildirilmektedir. Manhattan Projesi’nin (günümüz parasıyla) bütçesi OpenAI’ninkine benzerdi, ancak toplam çalışan sayısı yaklaşık bin kat, çekirdek bilim ve mühendislik personeli sayısı ise en az yüz kat daha fazlaydı – bir devlet sırrı olmasına rağmen.
Manhattan Projesi geliştiricilerinin yetki ve takdir yetkisi nispeten sınırlıydı. OpenAI’nin misyonu çok daha geniştir: “yapay genel zekanın (AGI) – yani ekonomik açıdan en değerli işlerde insanlardan daha iyi performans gösteren son derece otonom sistemlerin – tüm insanlığa fayda sağlamasını sağlamak.” 12 Manhattan Projesi’nin tek ve [Sayfa 151 Sonu] sınırlı hedefi nükleer silah geliştirmekti ve ardından dağıtıldı. OpenAI, eğlenceden lojistiğe kadar birçok ekonomik ve sosyal sektörde kullanımı beklenen teknolojiler geliştiriyor ve gelirinin çoğu ulusun gelirini aşacağı bir gelecek için aktif olarak planlama yapıyor. 13
Dahası, tasarım kararları sistem davranışını şekillendirebilir. Örneğin, üç önde gelen GFM’nin (OpenAI’nin GPT’si, Hugging Face’in Bloom’u ve Anthropic’in Claude’u) geliştiricileri, modellerin gerektiği gibi davranmasını (“uyum”) ve yakın zamanda önerilen AB mevzuatına uymasını sağlamak için oldukça farklı yaklaşımlar benimsediler. 14 Ancak sonuçta, dar görüşlü eğitimli teknisyenlerden oluşan küçük ve homojen bir grup (çoğunlukla genç, beyaz, laik, teknik eğitimli, erkek ve çoğunlukla Amerikalı) günümüz dünyasındaki en önemli kararlardan bazılarını veriyor. Yetkilerinin resmi kapsamı, bazı devlet başkanlarınınkinden daha sınırlı ancak çok daha az aracılı; en güçlü otoriter liderler bile bürokrasi katmanlarını yönetmek zorunda.
Bu güç yoğunlaşması, gelişmekte olan GFM tabanlı ekonominin “komuta zirvelerine” özgü değil, teknoloji odaklı ekonomimizin genel bir özelliğidir. Çoğu gelişmiş ülkede, emeğin milli gelirdeki payı 1970’lerdeki zirveden bu yana yaklaşık onda bir oranında düşerek ekonomik gücü dağınık emek geliri sahiplerinden yoğunlaşmış sermaye sahiplerine kaydırmıştır. Bu değişimler genellikle emeği tamamlayan değil, otomatikleştiren teknolojilerin yaygınlaşmasına ve piyasa gücündeki artışa bağlanmaktadır. 15 “Ekonomik açıdan en değerli işlerde insanlardan daha iyi performans göstermeyi” hedefleyen teknolojiler, gücü teknik bir elit kesimde yoğunlaştırmak ve emeğin milli gelirdeki payını azaltmak için neredeyse kusursuz bir şekilde tasarlanmış gibi görünmektedir. 16 Bu tür bir yoğunlaşmış teknik ve ekonomik gücün tehlikesi konusunda görüşler farklılık gösterse de, demokrasinin destekçileri, mevcut yapay zekâ geliştirme yapısının otoriter kontrol fırsatları olarak sunduğu “dar geçitlerden” korkmalıdır. GFM’lerin tüketici ürünleri olarak hızla yaygınlaşması, bilgiyi kontrol etmek için eşsiz bir fırsat sunmaktadır.
Demokrasi İçin Teknolojinin Harekete Geçirilmesi
Bir yandan çöküş ve kaosa, diğer yandan tekilliğe ve yoğunlaşmış güce karşı nasıl savunma yapabiliriz? Bir dizi strateji bu riskleri azaltabilir. Bunlar genel olarak üç kategoriye ayrılır: geri çekilme, kontrol altına alma ve seferberlik.
Çöküşü önlemek için geri çekilme stratejileri, dijital etkileşimlerin rolünü azaltmayı ve gerçeği ortaya çıkarmak için yüz yüze etkileşimlere daha fazla güvenmeyi içerir. Sınırlama stratejileri, GFM davranışını tespit etmeye, etiketlemeye ve sınırlamaya odaklanır (genellikle GFM tarafından oluşturulan içeriği filigranlayarak); bunların kötü niyetli aktörlere karşı etkili olması için oldukça evrensel bir uygulama gerekir. Seferberlik stratejileri, demokratik kurumların temellerini zenginleştirmek ve GFM’ler karşısında onları daha sağlam hale getirmek için [Sayfa 152 Sonu] GFM’leri ve gelişmiş kriptografiyi (dijital kodlama ve kod çözme) kullanmayı içerir. 17 Ancak dijital yaşamdan geri çekilme, alanı otoriter rejimlerin gelişimine açık bırakır ve öncelikle savunmacı ve düzenleyici yaklaşımlar olan sınırlama, gelişimi demokratik olarak hesap vermeyen küçük bir grup şirkette daha da yoğunlaştırma eğilimindedir.
Peki, tekillik, yoğunlaşmış güç ve yaklaşan otoriterlikten kaynaklanan tehditlere karşı nasıl kendimizi savunabiliriz? Tekilliğin getirdiği zorluklarla başa çıkmak için en basit kontrol stratejisi, rekabeti kolaylaştırmaya odaklanır; bu da yoğunlaşmış aktörlerin kontrolünü gevşetmek için açık kaynaklı modellerin geliştirilmesini teşvik eden düzenlemeler, teşvikler ve yasal kurallar yoluyla gerçekleşir. Ancak bu strateji, Scylla ve Charybdis arasında pek bir mesafe bırakmaz; bu da ya demokratik ülkelerdeki geliştiricilerin otoriter rejimler tarafından geliştirilen modellerle rekabet edebilmeleri için gereken ölçeği zayıflatır ve farkında olmadan güç yoğunlaşmasını pekiştirir ya da düzenlenmemiş modelleri daha yaygın hale getirerek çöküşü hızlandırır veya her ikisini birden yapar.
Ne geri çekilme ne de sınırlama , çoğulcu toplumları korumaya hizmet etmeyecektir. Toplumlarımızın çöküş veya tekillik uçurumunda parçalanmasını veya ikisi arasında tehlikeli bir şekilde savrulmasını izlemek yerine, politika ve teknoloji geliştirmeyi çoğulculuk hedefine doğru seferber ederek dar geçitte ilerlemeyi öneriyoruz.
Demokratik sistemler, küresel savaşlardan pandemilere kadar hızlı hareket eden ve büyük ölçekli olgularla başa çıkmakta uzun süredir zorlanmaktadır. Bu olgularla sıklıkla ya geçici ve olağanüstü bir şekilde otoriteyi yoğunlaştırarak ya da idare ederek başa çıkmaya çalışmışlardır. Bu tür anları karşılamak için yalnızca çok sınırlı durumlarda demokratik kolektif zekânın eşsiz dehasından yararlanabilmişlerdir. Mevcut teknolojik çağ, muazzam ölçek ve hızı, net bir bitiş tarihi olmaksızın bir araya getirmiştir; bu durum, demokratik toplumlar için olağanüstü tepki önlemlerini uygunsuz kılmaktadır. OpenAI’nin CEO’su Sam Altman, özel kaynaklardan fon aramadan önce OpenAI için kamuoyu desteği toplamaya çalışmış ve başarısız olmuştur. Teknolojinin özellikleri göz önüne alındığında, hükümetin bu çalışmayla etkileşimini demokratik bir bağlamda motive etmek anlaşılabilir bir şekilde zordu. Yine de, yalnızca GFM’leri yeni demokratik katılım ve kontrol biçimleri oluşturmak için kullanan seferberlik stratejileri, navigasyon için gereken güç ve yönlendirme kapasitesini sunuyor gibi görünmektedir.
John Dewey, ilerleme adına zorlu tavizlerin yeni bir şey olmadığını hatırlatarak, Halk ve Sorunları (1927) adlı eserinde şöyle yazmıştır:
“Sanayi ve teknolojideki icatlar”, bir kez kurulduktan sonra kendi ivmeleriyle varlığını sürdüren siyasi biçimlerin dışında kalan yeni kamular veya dernek grupları da dahil olmak üzere değişikliklere yol açabilir. Oluşan yeni kamu, miras kalan siyasi kurumları kullanamadığı için uzun süre gelişmemiş ve örgütsüz kalır… Siyasi kurumları oluşturan kamu yok oluyor, ancak iktidar ve sahip olma hırsı [Sayfa 153 Sonu] , ölen kamuoyunun kurduğu görevlilerin ve kurumların elinde kalıyor. Bu nedenle devlet biçimlerinin değişimi çoğu zaman yalnızca devrimle gerçekleşir. 18
Sonuç olarak, rehavet ve atalet, büyük teknolojik değişim dönemlerinde demokrasileri en çok tehdit eden unsurlardır. Yeni teknolojilerin etkilerinin farkında olarak, çoğulcu toplumları savunmak için GFM’leri ve diğer gelişmiş teknolojileri kullanan yeni kurumsal yapılara yönelmemiz gerekiyor.
Her tehdit için farklı seferberlik stratejileri mevcuttur. Çöküşü önleme stratejisi, demokratik kurumların temellerini (özellikle kimlik doğrulama, gizlilik ve genel bilgi) zenginleştirmek için GFM’leri ve gelişmiş kriptografiyi kullanır. Tekillikle mücadele stratejisi ise, GFM’lerle ölçeklenebilen ve hızlanabilen yeni demokratik etkileşim ve kontrol biçimleri oluşturmak için aynı araçları kullanır ve böylece demokratik yönetişimin bu gelişmeleri doğrudan şekillendirmesine ve bunlara katkıda bulunmasına olanak tanır. 19
GFM’lerin hem çöküşe hem de tekilliğe karşı seferberliği destekleyebileceğine neden inanıyoruz? GFM’ler, geniş alanlara yayılmış büyük kitleler arasında anlamlı demokratik katılımı mümkün kılmak için en derin ve en eski engellerden bazılarını ortadan kaldırabilir. Prensip olarak, GFM’ler daha önce hayal bile edilemeyecek bir zenginlik ve ölçekte demokratik çoğulculuğu güçlendirebilir. Sonunda internete dönüşecek olan şeyin kurucularından JCR Licklider, yaklaşık yarım asır önce, tasarım ve yatırımın, son dijital devrimin çoğulculuk koridorunu daraltıp daraltmayacağını yoksa genişletip genişletmeyeceğini belirleyeceği konusunda uyarmıştı. 20 Bir çoğulculuk stratejisi bunu nasıl başarabilir?
Her milletin, tanıdık ve saygı duyulan ulusal karakterini temsil eden sembolleri, değerli ortak anıları vardır. “Demokrasi” kelimesi giderek daha fazla Batı ülkesinde benzer şekilde kullanılıyor; bir ideal, özlem veya hayal olarak değil, savunulması gereken değerli bir varlık olarak. Ancak demokrasinin kalıcı olması ve teknolojinin getirdiği zorluklarla başa çıkabilmesi için, mevcut demokratik kurumların demokratik özlemler konusunda zorlu pragmatik uzlaşmaları temsil ettiğini unutmamalıyız.
Günümüz demokrasileri, iktidarı sınırlama ve meşruiyeti yönetilenlerin açık rızasına dayandırma yönündeki on sekizinci yüzyıl taahhütlerinden türemiştir. Bunu oylama yoluyla başarmak, kasaba, ilçe ve il düzeyinde örgütlenme ve müzakereler gerektiriyordu. Birbirini tanıyan insanlar, toplumları için bir yön belirlemek üzere tartışıyorlardı. Ayrıca, işler ve roller hakkında yan anlaşmalar yapıyor, ilişkiler ve iyiliklerden oluşan ağlar kuruyor, ortak bilgi ufkunu genişletiyorlardı. Bu müzakereler ve yan anlaşmalar oylamaya dönüşüyordu. Bu oylar ve onların içinden geldikleri ağlar ve ilişkiler, “hep birlikte olma” deneyimini destekliyordu.
On sekizinci yüzyıl beklentisi, istikrarlı bir toplumsal yapının, aracılı iletişim ve karşılıklı fayda taahhütleriyle birbirine bağlı insan ağlarının bir kombinasyonunu gerektirdiğiydi. Altı bin kadar insanın müzakere etmek için bir araya gelebildiği antik Atina’da bile, bu yapılandırılmış istikrar anlayışı geçerliydi. Resmî halk meclisinde müzakere için çok az alan vardı . Orada konuşmalar yapılır ve oylamalar yapılırdı. Ancak meclisin dışında, bu karşılıklılık ağlarında, tartışma ve müzakere serbestçe akıyordu. Bu resmî ve gayrıresmî alanlar birlikte, vatandaşlara hem kolektif kontrol hem de kişilerarası bağlantı deneyimleri sunuyordu. Oy hakkının genişlemesine rağmen, bugün çok az insan gerçek anlamda müzakere deneyimlerine erişebiliyor.
Modern anayasal demokrasilerin kurumsal biçimi, milyonlarca insanın yüzlerce veya binlerce mil mesafeye yayıldığı ülkelerde doğrudan konuşmanın, olayları anlamlandırmanın ve birbirleriyle çıkar alışverişinde bulunmanın bariz imkânsızlığından kaynaklanmaktadır. Sanayi çağında ulaşım ve üretimde bir patlama yaşanırken, bilgi ve iletişim teknolojilerinde çok daha yavaş ilerlemeler yaşandı ve bu da bilgi ve iletişimden tasarruf ederken büyük ölçekli ekonomik etkileşimlere olanak tanıyan sistemlerin ortaya çıkmasına yol açtı. Bu durum muazzam bir toplumsal karmaşıklık yarattı ve halk kontrolünü ve bağlarını zayıflattı. GFM’ler, prensipte artık müzakereli konuşmaların, ortak anlam oluşturmanın ve çıkar alışverişinin ölçeklendirilmesine izin verebildiğinden, çoğulcu toplum için meşruiyet süreçlerini istikrara kavuşturmak üzere harekete geçirilebilirler. Müzakereci unsurların ve doğrudan demokrasi unsurlarının yerleştirilmesi yoluyla, mevcut olanlardan daha dinamik ve uyarlanabilir temsil biçimlerine olanak tanıyan temsilin yeniden icat edilmesini sağlayabilirler. Temsilin yenilenmesini sağlamak için üç şeye odaklanmak gerekir: kimlik, medya ve ses.
Kimlik ve Kimlik Bilgileri
Daha önce de belirttiğimiz gibi, kimlik ve kimlik bilgileri demokratik bir toplumun belki de en temel bilgi bileşenleridir. Vatandaşların eşit şekilde korunması onlarsız imkansızdır. Doğum belgelerinden eğitim başarılarına kadar çeşitli kimlik belirteçleri ve kimlik bilgileri sağlamak, çoğu devletin temel işlevlerinden biridir. Bu durum, vatandaşlara devlet gözetiminden bağımsızlık vadeden demokrasiler için bir ikilem yaratmaktadır; bu, yirminci yüzyılda ulusal kayıtlar aracılığıyla kolaylaştırılan zulümlerle daha da belirginleşen bir gerilimdir. Bu nedenle birçok demokratik yönetim, ulusal kimlik sistemleri oluşturmaya direnmiş ve bunun yerine bilgi saklamayı en aza indiren hizmete özgü kimlik sistemlerinde ısrar etmiştir.
Ancak bu tür iyi niyetli yaklaşımların sonuçları, niyetlerin kendisinden oldukça farklı olmuştur. ABD Sosyal Güvenlik Numarası (SSN) belki de en çarpıcı örnektir. Cumhuriyetçi Parti’nin ulusal kimlik numarası oluşturulmasına karşı muhalefetiyle bir uzlaşma olarak tasarlanan ve teorik olarak yalnızca Sosyal Güvenlik İdaresi tarafından kullanılması kısıtlanan SSN, bir dizi zayıflığa rağmen Amerikan yaşamında kişisel kimlik tespiti için varsayılan olarak yaygın bir şekilde kullanılmaktadır. 21 Yalnızca en ince doğrulamaya (bir doğum belgesinden biraz daha fazlasını gerektirir) dayanır ve çok sık kullanıldığı için gizli tutulması neredeyse imkansızdır. [Sayfa 155 Sonu]
SSN sistemi hiçbir zaman saldırılara karşı koyacak şekilde tasarlanmamıştır ve şaşırtıcı olmayan bir şekilde, GFM’ler tarafından tehdit edilmektedir. Farklı bağlamlarda bilgi kırıntılarını izlemenin kolaylığı, herkesin Sosyal Güvenlik numarasının GFM’ler aracılığıyla çok düşük bir maliyetle yakında erişilebilir olacağı anlamına gelir. Birçok demokratik ülkedeki hükümetler, basit ve modası geçmiş kimlik ve sınıflandırma sistemlerine bağımlılıklarından kaynaklanan kritik zorluklarla karşı karşıyadır. Örneğin, seçim yönetiminin (ve dolayısıyla seçimlerin kendisinin) meşruiyeti, vatandaş seçmenlerin kimliklerinin doğrulanmasındaki zorluklar arttıkça önemli ölçüde aşınmaktadır.
GFM’ler ve diğer gelişmiş teknolojiler bu tür sistemleri nasıl geliştirebilir ve daha sağlam hale getirebilir? Olasılıkları görmek için teknoloji şirketlerine veya devlet güvenlik kurumlarına bakmak yeterlidir. Bu tür kurumlar, erişimi doğrulamak veya hizmetleri hedeflemek için geleneksel “yasal” kimliklere çok az güvenirler. Bunun yerine, sosyal ilişkiler, ekonomik işlemler ve konum verileri gibi çeşitli sinyallerden yararlanırlar. Bunu, gelişmiş bir teknoloji kullanarak veya büyük bir analitik maliyetle ve en önemlisi, demokratik devletlerden beklenenden çok daha az resmi vatandaş mahremiyetine saygı göstererek yaparlar.
Oysa GFM’lerin ve modern kriptografinin üstesinden gelmeye yardımcı olabileceği zorluklar tam da bunlardır. Günümüzde, bir dizi sosyal ve finansal veriden net bir kimlik sinyalini ayrıştırmak için dahi bir istihbarat analisti gerekebilir, ancak zamanla böyle bir deha her devlet bürokratının parmaklarının ucunda olacaktır. Dolayısıyla, şu anda vatandaş mahremiyetinin kabul edilemez bir ihlali gibi görünen şey (örneğin, birini tanımlamak veya mesleki yeterliliklerini değerlendirmek için kişisel verileri analiz etmek) yakında böyle bir ihlal olmadan gerçekleştirilebilecektir. Modern kriptografik teknikler (örneğin, doğrulamanın dayandığı verilerin hiçbirini ifşa etmeden belirli bilgilerin doğrulanmasına olanak tanıyan sıfır bilgi kanıtları) ve güvenli çok taraflı hesaplama (temel verileri paylaşmadan paylaşılan istihbarat oluşturulmasına olanak tanıyan), diğer tüm verileri gizli tutarken zengin ancak son derece hedefli bilgiler toplayabilir. Bu tür teknikler, örneğin, birinin yaşını diğer kişisel bilgilerini ifşa etmeden doğrulamak için kullanılabilir. Bu nedenle, eski teknolojiler ile günümüz gerçekleri arasındaki uyumsuzluk nedeniyle zorlanan seçmen ve sosyal hizmet kimlik sistemlerimizi iyileştirmek için bunlardan yararlanılabilir.
Sadece temsil ve oylama değil, aynı zamanda hükümetin hizmet sunumu da iyileştirilebilir. Estonya’nın e-Estonya altyapısı, tüm kamu hizmetlerini güvenli bir şekilde çevrimiçi olarak erişilebilir hale getirmiş ve özel sektör hizmetleriyle tam olarak uyumlu hale getirmiştir; tıpkı ürünler arasında “Google ile oturum aç” özelliği gibi. Hizmet sağlayıcılar, vatandaşlara sunulan hizmetleri iyileştirmek için uygun izinlerle devlet verilerini kullanabilir. Bunu başarmak ve gizliliği korumak için Estonya, kriptografi yerine bilgi kötüye kullanımı için yasal yaptırımlara güvenmektedir; bu sayede ülke, hedeflenen düşmanlara (örneğin Rusya) karşı güçlü bir güvenlik ve aynı anda verimli hizmet sunumu sağlamaktadır. [Sayfa 156 Sonu]
Hindistan’ın “Hindistan Yığını” dijital kamu altyapı sistemi, Modüler Açık Kaynak Kimlik Protokolü (MOSIP) olarak giderek uluslararası hale gelerek, gelişmekte olan ülkelerin teknolojik koşullarına daha iyi uyum sağlayan benzer bir yaklaşımı izlemiştir. GFM çağında gizliliği ve demokratik işleyişi korumak istiyorsak, bu performans seviyesine sahip ancak kriptografi yoluyla daha mutlak gizlilik korumaları sağlayan sistemlerle deneylere acilen ihtiyaç vardır.
Çoğul Medya Oluşturma
Çağdaş kültürün “multimedya” ve “etkileşimli” formatlarının çoğu (etkileşimli kamusal sanattan sosyal medyaya kadar), II. Dünya Savaşı’ndan sonra o dönemde hızla yaygınlaşan iletişim teknolojilerine demokratik idealleri aşılama yönündeki bilinçli çabalardan doğmuştur. 22 Ancak bu tür özlemler kolayca yoldan çıkabilir. Son on yıl, reklam kârlarının hizmetinde sosyal medyanın ve internet kültürünün genel olarak nasıl kutuplaşma, demokratik çöküş ve otoriter gözetimin motoru haline geldiğini göstermiştir. GFM’ler bu eğilimleri önemli ölçüde hızlandırma potansiyeline sahiptir.
Ancak, Licklider’ın ifadesiyle, “bilgisayar teknolojisinin geliştirilmesi ve kullanılmasıyla ilgili kararların yalnızca ‘kamu yararına’ değil, aynı zamanda halka geleceklerini şekillendirecek karar alma süreçlerine katılma olanağı sağlamak amacıyla alınması” yönündeki yüzyıl ortası özlemlerinden kurtarılması gereken önemli bir şey var. 23
GFM’ler çoğulcu bir medya ortamında nasıl kullanılabilir? Demokratik medyanın önemli bir unsuru, bakış açılarının çeşitliliğini tanımak ve desteklemektir. Bu, “bağlantılı bir toplum” veya “farklılıklar arasında iş birliği” olarak da adlandırılan bir yaklaşımla desteklenmelidir. 24 Çeşitliliğin hayatta kalıp gelişebilmesi için, hem köklü çatışmalara sürüklenmekten kaçınmak hem de yeni sosyal gruplar yaratmak için yeniden birleşmeyi mümkün kılmak adına, köprülenebilir olması gerekir.
Hesaplamalı araçların faydalı olma potansiyeli somuttur. Son on yıldır Tayvan hükümeti ve sivil toplum, kamu politikası konularında vatandaşlar, milletvekilleri, iş dünyası ve sivil toplum arasındaki görüş ayrılıklarını gidermek ve toplumsal eyleme hazır mutabakat alanlarını belirlemek için vTaiwan adlı bir platform kullanmaktadır. Bu sistem, bir konu hakkındaki kısa ifadeleri alır ve diğer kullanıcıların bunları değerlendirmesine olanak tanır. Algoritmaları, verileri kümeleyerek farklı görüş gruplarını ve genellikle farklı görüşlere sahip grupların şaşırtıcı bir şekilde fikir birliği bulduğu noktaları vurgular.
Düzinelerce Batılı yargı bölgesi artık vTaiwan’a benzer bir sistem olan pol.is’i kullanıyor ve sosyal medya platformu X’in (eski adıyla Twitter) Topluluk Notları özelliği, genellikle çelişkili kullanıcı ve uzmanların faydalı bulduğu gönderilerdeki katkı sağlayanların notlarını vurgulamak için benzer analizler topluyor. Bu süreç yalnızca gerçekleri kontrol etmekle kalmıyor, aynı zamanda demokratik ortak anlayış için bir temel oluşturabilecek ortak anlayışların ortaya çıkmasına da yardımcı oluyor. [Sayfa 157 Sonu]
Ancak bu tür sistemler hem teknik hem de sosyal olarak hala emekleme aşamasındadır. Sadece en temel makine öğrenimi biçimlerini kullanırlar ve diğer yorumlarda benzer oylama kalıplarına sahip kişilerin yorumlarını gruplandırırlar. Ancak devam eden araştırmalar, yorumların içeriğini anlamak ve fikir kümelerinin etkileşimli sentezlerini üretmek için GFM’leri kullanır. 25 Sistemler ayrıca şu anda tüm katılımcıların iyi niyetle hareket ettiğini varsayar; ancak bu tür modeller yayıldıkça durumun böyle kalması pek olası değildir. Güvenliği ve teşvikleri iyileştirmek, daha geniş bir kullanıma izin vermek için kritik öneme sahip olacaktır. Genellikle bu sistemler hala sonradan akla gelen bir şeydir ve halkın tepkisini azaltmak için X tarafından veya ülkenin Dijital İşler Bakanı Audrey Tang’ın popülaritesi nedeniyle Tayvan hükümeti tarafından desteklenmektedir. Ancak bu tür kamu destekli dijital alanlar parklar ve kütüphaneler kadar yaygınlaştığında, aldatıcı GFM tarafından üretilen içeriklerin yol açtığı kutuplaşma sorunuyla karşılaşmaları muhtemeldir.
Halkın Sesi
Kimlik doğrulama ve bilgi, demokrasinin temel taşlarıdır. Ancak devlet işlevlerinin kamusal denetimi, demokrasiyi tanımlar. Gelişmiş teknolojiyi kullanarak demokratik sistemleri dönüştürmek, vatandaşların seslerini resmi olarak nasıl temsil ettiğimizi ve duyduğumuzu dönüştürmeyi gerektirecektir. Mevcut kurumlardaki yerleşik iktidar sahipleri, statükoyu korumaya çalışacaklarından, bu, yeni teknolojiler için muhtemelen en zorlu ve tartışmalı etki alanı olacaktır.
Bu boyuttaki seferberlik ve dönüşümün, resmi yönetişim mekanizmalarının dışında gerçekleşeceğini veya çevrelerinden başlayacağını düşünüyoruz; önce belediyelerde, sonra da ulusal düzeylerde. Hannah Arendt, klasik eseri On Revolution’da (1963), Amerikan ve Fransız devrimleri arasındaki temel farklardan birinin, ilkinde yerel demokrasinin, daha geniş bir ölçekte denenmeden önce, İngiliz erişiminin dışında, meşru ve yaygın olarak kabul görmüş bir uygulama olarak gelişmiş olması olduğunu savunur: Meşruiyet otoriteden önce gelir. 26 Benzer şekilde, resmi siyasi kurumların dışındaki organik evrimin, baskın yapılar erozyona uğradığında “yeni kamuoyunun” resmi otoriteyi devralmasına yardımcı olacağını öne sürüyoruz.
Dewey’nin de belirttiği gibi, bu yeni uygulamaların ortaya çıkması için doğal bir alan, tam da demokratik kurumların en çok tehdit altında olabileceği yerdir: GFM’lerin geliştirilmesi ve yaygınlaştırılması. Bu modellerin geliştirilmesinin hızı ve ölçeği, bunların tasarımında anlamlı demokratik katılımın, demokratik sistemlerin kapasitesinde önemli bir artış gerektirdiği anlamına gelir. Neyse ki, medyanın basitleştirilmiş tasvirine rağmen, önde gelen GFM’leri geliştiren birçok kuruluş, basit kâr odaklı şirketler değildir: OpenAI, Anthropic ve açık kaynaklı modellerin birçok bakımcısı, meşruiyet ve kamu katılımına önemli ölçüde ilgi duyan çok daha karmaşık hibrit kuruluşlardır. 27
Sonuç olarak, bu kuruluşlar, resmi siyasi kurumların dışında ve GFM’ler ve gelişmiş kriptografi tarafından güçlendirilen yeni demokrasi biçimleriyle ilgili deneyleri destekliyorlar . Bu deneyler genellikle katılımcılar arasında müzakereyi teşvik etmek için pol.is gibi araçlarla başlıyor, ancak daha sonra doğrudan seçimlere ve eyleme yönelik girdilere yöneliyor. Anthropic, amiral gemisi Claude sisteminin temelini oluşturan anayasayı yeniden şekillendirmek için pol.is’i kullanarak deneyler yaptı ve engelli bireylere karşı sergilediği önyargıyı önemli ölçüde azalttı. 28 OpenAI’nin “Demokratik Girdiler” programı aracılığıyla yürüttüğü diğer devam eden deneyler, katılımcıların yalnızca tercihlerini değil, önceliklerini de (örneğin ikinci dereceden oylama) ifade etmelerini sağlayan gelişmiş oylama tekniklerini veya ifade edilen değerleri sentezlemeye yardımcı olmak için GFM’leri kullanmayı içeriyor. 29
Açık kaynaklı modeller, benzer zorluklara farklı bir başlangıç noktasından yaklaşıyor. Daha önce gizli olan süreçleri kamuoyunun katılımına açmak yerine, lisans eksikliği nedeniyle yasaklanma tehditleri arasında kamuoyunun meşruiyetini arıyorlar. Buna karşılık, açık kaynaklı modeller ve geliştiricileri (Hugging Face gibi), düzenleyici engelleri aşabilecek güçlü, ancak katılımcı ve demokratik kontrollere sahip yetkili sürümler oluşturmaya giderek daha fazla yöneliyor. Bu modeller, resmi oylama protokollerinden ve katılımcı tasarım süreçlerinden yararlanıyor. 30
Bu tür yaklaşımlar, teknolojik değişime ayak uyduran dijital demokratik yönetişim olanağı sunmaktadır. Artan kanıtlar, bu modellerin çok sayıda katılımcıyla ayrıntılı, esnek ve etkileşimli görüşmeler gerçekleştirebileceğini ve ardından kolektif kaygıların mevcut durumunu kolayca anlaşılabilir biçimlerde aktarabileceğini göstermektedir. 31 Modeller ayrıca, bu görüşmelerden toplanan bilgilerden de ders çıkararak, karar vericilere nitel ve nicel içgörüler sunabilmektedir; bu durum, bir topluluğun tartışmalı arazi kullanım kuralları hakkında seçici görüşlere odaklanan yakın tarihli bir Microsoft Araştırma projesinde de gösterilmiştir. Sonuç olarak, bu modeller, kamuoyunun kaygıları konusunda tam etkileşimli danışmanlar olarak hizmet verebilmelidir. 32
Bu olasılık, “temsil” anlayışımızı sorgulamaya başlıyor. Bu tür danışmanlara ne kadar güvenmeliyiz? Eylemleri doğrudan belirlemeliler mi? Bu tür modeller, standart coğrafi bölgeler tarafından belirlenen gruplardan farklı, benzer düşünen vatandaş gruplarını belirleyebiliyorsa, bu iki olası temsil yapısını nasıl uzlaştırabiliriz? Düzenlemeler, geleneksel hükümet süreçleri tarafından ne kadar, yeni toplumsal olarak katılımcı, demokratik süreçler tarafından belirlenmeli? Bu tür modellerle etkileşim ve geri bildirim, seyrek seçimlerden beklediğimizden daha sürekli hale gelebiliyorsa, bunları politika ve planları sürekli olarak yeniden şekillendirmek için kullanmalı mıyız? Eğer öyleyse, katılım ve doğrulama için hangi eşikler gerekli olmalı? Filozof Bruno Latour’un önerdiği gibi, ekosistemler gibi doğal olayların “şeyler parlamentosu”nda GFM’ler aracılığıyla biçimsel temsilini sağlamak mantıklı olabilir mi? 33 “Şeyleri” temsil etme kavramı mevcut uygulamaya yabancı görünse de, örneğin çeşitli altyapı projelerine izin vermeden önce çevresel etki çalışmaları yaparak bunu zaten yapıyoruz. [Sayfa 159 Sonu]
Büyük olasılıkla, GFM’ler bu tür çabaları büyük ölçüde iyileştirebilir ve Dark Matter Labs’ın deneylerinin de göstermeye başladığı gibi, “etkilenen herkesin” karar alma süreçlerinde söz sahibi olmasının anlamını genişletebilir. 34 Ve bu deneyler halihazırda siyasi kurumlara da yayılıyor. Partners In Democracy ve New_ Public gibi sivil toplum kuruluşları, bu deneylerden dersler çıkarıyor ve mevcut siyasi sistemler içinde, temsili iyileştirmek için yeni teknolojilerin kullanılabileceği uygulama noktalarını belirliyor. 35
Baştan Sona
Dünyanın modern demokrasi deneyimi henüz genç, henüz 250 yaşında bile değil. Siyasi veya sosyal çalkantılar dönem dönem yaşanır. Bazıları demokrasinin kalıcılığını tehdit ediyor gibi görünmektedir. Amerika Birleşik Devletleri’nde hem İç Savaş hem de II. Dünya Savaşı bunu yapmıştır. Dünya genelindeki her demokrasi varoluşsal tehlikeler yaşamıştır; bunların ardından her zaman büyük dönüşümler ortaya çıkmıştır. Amerika Birleşik Devletleri, İç Savaş’ın ardından kısa bir süreliğine dünyanın ilk çok ırklı demokrasilerinden birini kurmuştur; II. Dünya Savaşı ise tarihin en büyük demokratikleşme ve sömürgecilik karşıtı dalgasına ve Birleşmiş Milletler’in kurulmasına yol açmıştır.
Odysseus, sirenlerin kaderci mesajlarını susturmak için kulaklarında balmumu taşıyarak Scylla ve Kharybdis arasındaki boğazlardan geçerken, kendisi ve mürettebatı hangi eve doğru yelken açtıklarını biliyorlardı: İthaka. Biz de iki canavar, tekillik ve kaos arasında dar bir rota çizmeliyiz, ancak giderek karmaşıklaşan bu dünyada çok azımız “yuvayı” bu kadar net bir şekilde tanımlayabiliyor. Bizim önerimiz şu: Birlikte gelişebileceğimiz çoklu yuvalar yaratmak için dünyamızın karmaşıklığını yönetmek üzere dijital araçlardan yararlanmaya çalışmalıyız.
Veya Ralph Ellison’un dediği gibi, “Aradığımız eve giden yol, insanın dünyada evinde olduğu durumdur; buna sevgi denir ve biz buna demokrasi adını veririz.” 36 [Sayfa 160 Sonu]
Danielle Allen , Harvard Üniversitesi’nde James Bryant Conant Üniversitesi Profesörü ve Harvard Kennedy Okulu’nun Demokratik Yönetim ve Yenilik Ash Merkezi’ndeki Allen Demokrasi Yenileme Laboratuvarı’nın direktörüdür .
Glen Weyl, Plural Technology Collaboratory ve Microsoft Araştırma Özel Projeleri’nde araştırma lideri ve Plurality Institute’un başkanıdır .
NOTLAR
- Divya Siddarth ve diğerleri, “Yapay Zeka Bizi Nasıl Başarısızlığa Uğratıyor”, Adalet, Sağlık ve Demokrasi Etki Girişimi ve Carr İnsan Hakları Politikası Teknoloji ve Demokrasi Tartışma Belgesi, Aralık 2021.
- Daron Acemoglu ve James A. Robinson, Dar Koridor: Devletler, Toplumlar ve Özgürlüğün Kaderi , 1. basım (New York: Penguin, 2019).
- Bkz. Danielle Allen, Henry Farrell ve Cosma Rohilla Shalizi, “Evrim Teorisi ve İçsel Kurumsal Değişim” (yayınlanmamış makale, 2019), https://projects.iq.harvard.edu/files/pegroup/files/allen_farrell_shalizi.pdf ; ayrıca Danielle Allen, Demokrasi Yoluyla Adalet (Chicago: Chicago Üniversitesi Yayınları, 2023), 4. bölüm.
- Zekâ konusunda bkz. Howard Gardner, Çoklu Zekâlar: Teori ve Pratikte Yeni Ufuklar , gözden geçirilmiş ve güncellenmiş baskı (New York: Basic, 2006); Hugo Mercier ve Dan Sperber, Aklın Bilmecesi (Cambridge: Harvard University Press, 2017). Epistemik çoğulculuk konusunda bkz. Henry Farrell ve Cosma Rohilla Shalizi, “Bilişsel Demokrasiyi Takip Etmek”, editörler; Danielle Allen ve Jennifer S. Light, editörler, Sesten Etkiye: Dijital Çağda Vatandaşlığı Anlamak (Chicago: University of Chicago Press, 2015), 209–31.
- Otoriter rejimler, bilgi ekosistemlerini yalnızca sansürlemek yerine, genellikle stratejik olarak “akın” ederler. Gary King, Jennifer Pan ve Margaret E. Roberts, “Çin Hükümeti Sosyal Medya Paylaşımlarını Stratejik Dikkat Dağıtma Amaçlı Nasıl Uyduruyor, Etkileşimli Tartışma Değil”, American Political Science Review 111 (Ağustos 2017): 484–501. Ayrıca bkz. Justin Pottle, “‘Kitlesel Telkinin En Büyük Seli’: John Dewey, Propaganda ve Sosyal Örgütlenmenin Epistemik Maliyetleri”, Journal of Politics 84 (Temmuz 2022): 1515–27.
- Shrey Jain, Zoë Hitzig ve Pamela Mishkin, “Bağlamsal Güven ve Üretken Yapay Zeka”, arXiv (ön baskı), 2 Kasım 2023, https://doi.org/10.48550/arXiv.2311.01193 .
- Helen Nissenbaum, “Bağlamsal Bütünlük Olarak Gizlilik” sempozyumu, Washington Hukuk Dergisi 79 (Mart 2004): 119.
- Divya Siddarth ve diğerleri, “Gözcüleri Kim Gözetliyor? Kişilik Kanıtı Protokollerinde Sibil Direncine Yönelik Öznel Yaklaşımların İncelenmesi”, arXiv, 13 Ekim 2020, https://doi.org/10.48550/arXiv.2008.05300 .
- Beyaz Saray Bilim ve Teknoloji Politikası Ofisi, “ABD ve İngiltere, Gizliliği Geliştiren Teknolojileri Geliştirmek İçin Ödül Yarışmalarında Ortaklık Kuruyor”, basın bülteni, 8 Aralık 2021, www.whitehouse.gov/ostp/news-updates/2021/12/08/us-and-uk-to-partner-on-a-prize-challenges-to-advance-privacy-enhancing-technologies/ .
- Neal Stephenson, Elmas Çağı: Ya da Genç Bir Hanımın Resimli Kılavuzu (New York: Bantam Books, 1996).
- Ray Kurzweil, Tekillik Yaklaşıyor: İnsanlar Biyolojiyi Aştığında (New York: Penguin, 2006).
- “OpenAI Sözleşmesi”, OpenAI, https://openai.com/charter .
- Devin Coldewey, “OpenAI, Sermaye Çekmek İçin Kâr Amacı Gütmeyen Kuruluştan ‘Kâr Sınırlı’ Kuruluşa Geçiyor”, TechCrunch , 11 Mart 2019.
- Rishi Bommasani ve diğerleri, “Temel Model Sağlayıcıları AB Yapay Zeka Yasası Taslağına Uyuyor mu?” Temel Modeller Araştırma Merkezi, Stanford Üniversitesi, 2021, https://crfm.stanford.edu/2023/06/15/eu-ai-act.html .
- Daron Acemoglu ve Simon Johnson, Güç ve İlerleme: Teknoloji ve Refah Üzerindeki Bin Yıllık Mücadelemiz (New York: Public Affairs, 2023); Jan De-Loecker, Jan Eeckhout ve Gabriel Unger, “Piyasa Gücünün Yükselişi ve Makroekonomik Etkileri”, Quarterly Journal of Economics 135 (Mayıs 2020): 561–44.
- OpenAI, “Yapay Zeka Sistemleri Nasıl Davranmalı ve Buna Kim Karar Vermeli?” OpenAI blogu , 16 Şubat 2023, https://openai.com/blog/how-should-ai-systems-behave .
- Jain ve diğerleri, “Bağlamsal Güven ve Üretken Yapay Zeka.”
- John Dewey, Kamuoyu ve Sorunları (New York: Henry Holt and Company, 1927), 31.
- Bu tür stratejiler, stratejisine “Çoğulculuk” adını veren Tayvan Dijital Bakanı Audrey Tang tarafından zaten öncülük edildi. Tayvan Mandarininde aynı kelime hem “dijital” hem de “çoğul” anlamına gelir. Dijitalin kendisi, tekillik veya kaosun temeli olarak değil, çoğulluğun temeli olarak yeniden düşünülebilir. Tang bunu yaptı ve biz de çoğulcu toplumları savunmak için onun yolundan gidebiliriz. “Demokrasi Teknolojisi Üzerine Audrey Tang” röportajı, Tyler ile Sohbetler , 7 Ekim 2020, https://conversation-swithtyler.com/episodes/audrey-tang/ .
- JCR Licklider, “Bilgisayarlar ve Hükümet”, Michael L. Dertouzos ve Joel Moses’ın editörlüğünde, Bilgisayar Çağı: Yirmi Yıllık Bir Bakış (Cambridge: MIT Press, 1979).
- Arthur M. Schlesinger, Yeni Düzenin Gelişi: Roosevelt Çağı (Boston: Houghton Mifflin, 1958), 311.
- Fred Turner, Demokratik Çevre: II. Dünya Savaşı’ndan Psikedelik Altmışlara Kadar Multimedya ve Amerikan Liberalizmi (Chicago: The University of Chicago Press, 2013).
- JCR Licklider, “Bilgisayarlar ve Hükümet.”
- Danielle Allen, “Bağlantılı Bir Topluma Doğru”, Earl Lewis ve Nancy Cantor’un editörlüğünde, Zorlayıcı Çıkarlarımız (Princeton: Princeton University Press 2016), 71–105; Audrey Tang ve E. Glen Weyl, Çoğulculuk: İşbirlikçi Çeşitlilik için Teknoloji (yakında yayınlanacak, 2024).
- Christopher T. Small ve diğerleri, “Polis ile Ölçeklenebilir Müzakere için LLM’lerin Fırsatları ve Riskleri”, arXiv, 20 Haziran 2023, https://doi.org/10.48550/arXiv.2306.11932 ; Alejandro Cuevas Villalba ve diğerleri, “Otomatik Görüşmeci mi Yoksa Artırılmış Anket mi? Büyük Dil Modelleriyle Sosyal Veri Toplamak”, Deepai.org , 18 Eylül 2023, https://deepai.org/publication/automated-interviewer-or-augmented-survey-collecting-social-data-with-large-language-models .
- Hannah Arendt, Devrim Üzerine (New York: Viking Press, 1963).
- “Yapımız”, OpenAI, https://openai.com/our-structure ; Dylan Matthews, “Yapay Zekanın İnsanlığı Yok Etmemesini Sağlamak İçin 1 Milyar Dolarlık Kumar”, Vox , 17 Temmuz 2023, www.vox.com/future-perfect/23794855/anthropic-ai-openai-claude-2 .
- “Kolektif Anayasal Yapay Zeka: Bir Dil Modelini Kamuoyunun Katkılarıyla Uyumlu Hale Getirmek”, Anthropic, 17 Ekim 2023, www.anthropic.com/index/collective-constitutional-ai-aligning-a-language-model-with-public-input .
- Wojciech Zaremba ve diğerleri, “Yapay Zeka’ya Demokratik Girdiler”, Açık Yapay Zeka blogu, 25 Mayıs 2023, https://openai.com/blog/democratic-inputs-to-ai .
- Örneğin, yakın zamanda kurulan girişimlere ve topluluklara bakın: Gov-4-Git, Bloom ve Together.ai.
- Villalba ve diğerleri, “Otomatik Görüşmeci mi Yoksa Artırılmış Anket mi?”; Nils Gilman ve Ben Cerveny, “Yarının Demokrasisi Açık Kaynaklı”, Noema , 12 Eylül 2023, www.noemamag.com/tomorrows-democracy-is-open-source/ .
- Demokrasi ve yönetişim gibi çeşitli konulara odaklanan Los Angeles merkezli bir düşünce kuruluşu olan Berggruen Enstitüsü’ndeki araştırmacılar şu anda bu konu üzerinde çalışıyor.
- Bruno Latour, We Have Never Been Modern , çev. Catherine Porter (Cambridge: Harvard University Press, 1993), 165.
- Yu Tang Hsiao ve diğerleri, “VTaiwan: Tayvan’da Açık Danışma Sürecinin Ampirik Bir Çalışması”, SocArXiv (ön baskı), 4 Temmuz 2018.
- Örneğin, New_Public’in “Dijital Alanlar Rehberi” çevrimiçi aracına https://newpublic.org/directory adresinden bakın .
Ralph Ellison, “Brave Words for a Stunning Occasion”, 1953, Wichita State Üniversitesi Kütüphaneleri, Özel Koleksiyonları ve Üniversite Arşivleri’nde mevcuttur, http://specialcollections.wichita.edu .
Yazarlar Hakkında
Telif Hakkı © 2024 Ulusal Demokrasi Vakfı ve Johns Hopkins Üniversitesi Yayınları
