Yapay Zeka Demokrasiyi Nasıl Tehdit Ediyor?

Sarah Kreps/Doug Kriner

Üretken AI’nın patlayıcı yükselişi gazeteciliği, finansı ve tıbbı şimdiden dönüştürüyor, ancak siyaset üzerinde de yıkıcı bir etkiye sahip olabilir. Örneğin, bir sohbet robotuna karmaşık bir bürokraside nasıl gezineceğini sormak veya seçilmiş bir yetkiliye mektup yazmasına yardımcı olmak, vatandaş katılımını artırabilir. Ancak, aynı teknoloji -büyük ölçekte dezenformasyon ve yanlış bilgi üretme potansiyeliyle- demokratik temsiliyete müdahale etme, demokratik hesap verebilirliği baltalama ve toplumsal ve politik güveni aşındırma tehdidinde bulunuyor. Bu makale, bu alanların her birindeki tehdidin kapsamını analiz ediyor ve üretilen içeriği tanımlamak için kullanılan sinir ağları, üretken AI platformları tarafından özdenetim ve kamuoyunun ve seçkinlerin daha fazla dijital okuryazarlığı dahil olmak üzere bu kötüye kullanımlar için olası korumaları tartışıyor.

Tanıtılmasından sadece bir ay sonra, üretken yapay zeka (YZ) sohbet robotu ChatGPT, 100 milyon aylık kullanıcıya ulaşarak tarihin en hızlı büyüyen uygulaması oldu. Bağlam olarak, artık herkesin bildiği bir isim olan video akışı hizmeti Netflix’in bir milyon aylık kullanıcıya ulaşması üç buçuk yıl sürdü. Ancak Netflix’in aksine, ChatGPT’nin hızlı yükselişi ve iyi ya da kötü potansiyeli önemli tartışmalara yol açtı. Öğrenciler araştırma veya yazma için aracı kullanabilir mi, daha doğrusu kötüye kullanabilir mi? Gazetecileri ve kodlayıcıları işsiz bırakır mı?  New York Times’ın bir  köşe yazısında ifade edildiği gibi, kitlesel, sahte girdilerin demokratik temsili etkilemesine olanak tanıyarak “demokrasiyi ele geçirir mi”? 1  Ve en temelde (ve kıyamet gibi), yapay zekadaki gelişmeler insanlık için varoluşsal bir tehdit oluşturabilir mi? 2

Yeni teknolojiler farklı büyüklük ve aciliyette yeni sorular ve endişeler ortaya çıkarır. Örneğin, yeni içerik üretebilen yapay zeka olan üretken AI’nın varoluşsal bir tehdit oluşturması korkusu ne makul bir şekilde yakın, ne de mutlaka makul. Nick Bostrom’un, ataçları optimize etmek üzere programlanmış bir makinenin bu hedefe ulaşma yolunda önünde duran her şeyi ortadan kaldırdığı ataç senaryosu, gerçek olma eşiğinde değil. 3  Çocukların veya üniversite öğrencilerinin AI araçlarını kısayol olarak kullanıp kullanmadıkları değerli bir pedagojik tartışmadır, ancak uygulamalar arama motorlarına daha sorunsuz bir şekilde entegre oldukça kendi kendine çözülmesi gereken bir tartışmadır. Üretken AI’nın istihdam sonuçlarının nihai olarak karara bağlanması zor olacaktır çünkü ekonomiler karmaşıktır ve bu da AI’nın neden olduğu iş kayıplarının net etkisini endüstri kazanımlarından ayırmayı zorlaştırır. Yine de demokrasi için potansiyel sonuçlar anında ve ciddidir. Üretken AI, demokratik yönetimin üç temel sütununu tehdit eder: temsil, hesap verebilirlik ve nihayetinde bir siyasi sistemdeki en önemli para birimi olan güven.

Üretken yapay zekanın en sorunlu yönü, açıkça görülebilecek şekilde saklanması ve medya ortamını, interneti ve siyasi iletişimi en iyi ihtimalle anlamsız saçmalıklarla, en kötü ihtimalle de yanlış bilgilerle doldurabilecek muazzam miktarda içerik üretmesidir. Hükümet yetkilileri için bu, seçmen duygularını anlama çabalarını baltalayarak demokratik temsilin kalitesini tehdit eder. Seçmenler içinse, seçilmiş yetkililerin ne yaptığını ve eylemlerinin sonuçlarını izleme çabalarını tehdit ederek demokratik hesap verebilirliği aşındırır. Böyle bir medya ortamında makul bir bilişsel profilaktik önlem, hiçbir şeye inanmamak olurdu; bu, canlı demokrasiyle çelişen ve toplumsal güveni aşındıran bir nihilizmdir. Nesnel gerçeklik medya söyleminden daha da uzaklaştıkça, tamamen uzaklaşmayan seçmenler muhtemelen partizanlık gibi diğer sezgilere daha da fazla güvenmeye başlayacak ve bu da kutuplaşmayı daha da kötüleştirecek ve demokratik kurumlara vurgu yapacaktır.

Demokratik Temsile Yönelik Tehditler

Demokrasi, Robert Dahl’ın 1972’de yazdığı gibi, “hükümetin vatandaşlarının tercihlerine sürekli olarak yanıt vermesini” gerektirir. 4 Ancak seçilmiş yetkililerin seçmenlerinin tercihlerine yanıt verebilmesi için, öncelikle bu tercihleri ​​ayırt edebilmeleri gerekir. Kamuoyu yoklamaları (ki bunlar (en azından şimdilik) yapay zeka tarafından üretilen içerikler tarafından manipüle edilmekten çoğunlukla muaftır) seçilmiş yetkililere seçmenlerinin tercihlerine dair bir pencere sunar. Ancak çoğu vatandaş temel siyasi bilgiye bile sahip değildir ve politikaya özgü bilgi düzeyleri muhtemelen daha da düşüktür. 5 Bu nedenle, yasa koyucuların belirli bir politika sorunu hakkında güçlü görüşlere sahip seçmenlere ve bu sorunun kendileri için oldukça önemli olduğu kişilere  en  duyarlı olmak için güçlü teşvikleri vardır. Yazılı yazışmalar, seçilmiş yetkililerin bölgelerinin nabzını tutmalarının, özellikle de belirli bir konuda en yoğun şekilde harekete geçenlerin tercihlerini ölçmelerinin uzun zamandır merkezinde yer almaktadır. 6

Ancak, üretken AI çağında, elektronik iletişimlerin dengesi tarafından acil politika sorunları hakkında gönderilen sinyaller ciddi şekilde yanıltıcı olabilir. Teknolojik ilerlemeler artık kötü niyetli aktörlerin, sayısız sorunun herhangi bir tarafında pozisyon alarak zahmetsizce benzersiz mesajlar oluşturarak ölçekte sahte “seçmen duygusu” oluşturmasına olanak sağlıyor. Eski teknolojiyle bile, yasa koyucular insan tarafından yazılmış ve makine tarafından oluşturulmuş iletişimler arasında ayrım yapmakta zorlanıyordu.

2020’de Amerika Birleşik Devletleri’nde yürütülen bir saha deneyinde, altı farklı konu hakkında savunuculuk mektupları yazdık ve ardından bu mektupları, o zamanlar en son teknoloji ürünü üretken yapay zeka modeli olan GPT-3’ü yüzlerce sol ve sağ kanat savunuculuk mektubu yazması için eğitmek amacıyla kullandık. 7.200 eyalet meclis üyesine, toplamda yaklaşık 35.000 e-posta olmak üzere, rastgele yapay zeka ve insan tarafından yazılmış mektuplar gönderdik. Daha sonra, yasama organlarının makine tarafından yazılmış çağrıları ne ölçüde ayırt edebildiklerini (ve dolayısıyla bunlara yanıt vermediklerini) değerlendirmek için yanıt oranlarını insan tarafından yazılmış ve yapay zeka tarafından oluşturulmuş yazışmalarla karşılaştırdık. Üç konuda, yapay zeka ve insan tarafından yazılmış mesajlara yanıt oranları istatistiksel olarak ayırt edilemezdi. Diğer üç konuda, yapay zeka tarafından oluşturulmuş e-postalara yanıt oranları daha düşüktü; ancak ortalama olarak yalnızca %2 oranında. 7  Bu, binlerce benzersiz iletişimi kolayca üretebilen kötü niyetli bir aktörün, yasa koyucuların seçmenleri için hangi konuların en önemli olduğuna ve seçmenlerin belirli bir konu hakkında nasıl hissettiğine ilişkin algılarını çarpıtabileceği anlamına geliyor.

Aynı şekilde, üretken yapay zeka, vatandaşların düzenleyici devletin eylemlerini etkilemeye çalışabileceği kamusal yorum sürecini geçersiz kılarak demokratik temsilin kalitesine karşı çifte darbe vurabilir. Yasama organları, idari kurumlara yalnızca maddi uzmanlık gerektiren teknik soruları çözmek (örneğin, havadaki ve suda izin verilen kirletici seviyelerini belirlemek) için değil, aynı zamanda değerler hakkında daha geniş yargılarda bulunmak (örneğin, halk sağlığını korumak ile ekonomik büyümeyi gereksiz yere kısıtlamamak arasındaki kabul edilebilir takaslar) için de önemli takdir yetkisi vererek, zorunlu olarak geniş fırça darbeleriyle tüzükler yazarlar. 8  Dahası, yoğun partizan kutuplaşmasının ve acil politika öncelikleri konusunda sık sık yasa koyucu tıkanıklığının yaşandığı bir çağda, ABD başkanları giderek artan bir şekilde idari kural koyma yoluyla politika gündemlerini ilerletmeye çalışmaktadır.

Politika yapma yetkisinin yerini seçilmiş temsilcilerden seçilmemiş bürokratlara kaydırmak, demokratik bir açık endişesi doğurur. ABD Yüksek Mahkemesi,  Batı Virginia v. EPA  (2022) davasında, kurumların Kongre’den açık yasal yetki olmadan politikada büyük değişiklikler yapma yetkisine sahip olmadığını belirten büyük sorular doktrinini açıklayıp kanunlaştırarak bu tür endişeleri dile getirmiştir. Mahkeme, bekleyen  Loper Bright Enterprises v. Raimondo  davasında daha da ileri gidebilir ve  kurumlara yaklaşık otuz yıldır belirsiz kongre tüzüklerini yorumlama konusunda geniş bir hareket alanı tanıyan ve böylece düzenleyici süreç yoluyla politika değişikliği üzerindeki kısıtlamaları daha da sıkılaştıran Chevron doktrinini bozabilir  .

Ancak herkes düzenleyici sürecin demokratik olmadığı konusunda hemfikir değil. Bazı akademisyenler, kamu duyurusu ve yorum döneminde kamu katılımı ve şeffaflık için garantili fırsatların “canlandırıcı derecede demokratik” olduğunu savunuyorlar 9  ve süreci “özellikle karar almanın açık tutulması ve herkese eşit erişim sağlanması anlamında demokratik olarak hesap verebilir” olarak övüyorlar. 10  Dahası, ABD hükümetinin elektronik kural koyma (e-kural koyma) programının 2002’de ortaya çıkması, vatandaş girdisine yönelik engelleri düşürerek “kamu katılımını artırmayı… ve böylece daha iyi düzenleyici kararlar almayı teşvik etmeyi” vaat ediyordu. 11  Elbette, kamu yorumları her zaman, genellikle büyük ölçüde, önerilen bir kuralın sonucunda en çok risk altında olan çıkarlara doğru kaymıştır ve katılıma yönelik engelleri düşürmesine rağmen, e-kural koyma bu temel gerçeği değiştirmemiştir. 12

Kusurlarına rağmen, halkın kural koyma sürecine doğrudan ve açık katılımı, bürokratik eylem yoluyla politika değişikliğinin demokratik meşruiyetini güçlendirmeye yardımcı oldu. Ancak kötü niyetli aktörlerin, belirli bir gündemi ilerleten sınırsız benzersiz yorumlarla e-kural koyma platformlarını doldurmak için üretken AI kullanma becerisi, kurumların gerçek kamu tercihlerini öğrenmesini neredeyse imkansız hale getirebilir. Erken (ve başarısız) bir test vakası, 2017’de, botların kurallarda önerilen değişiklikler hakkında açık yorum döneminde net tarafsızlığın kaldırılmasını savunan sekiz milyondan fazla yorumla Federal İletişim Komisyonu’nu doldurmasıyla ortaya çıktı. 13  Ancak bu “astroturfing”, yorumların yüzde 90’ından fazlasının benzersiz olmaması nedeniyle tespit edildi ve bu, yürürlükten kaldırma için gerçek taban desteğinden ziyade yanıltmaya yönelik koordineli bir çaba olduğunu gösteriyordu. Yapay zeka teknolojisindeki çağdaş gelişmeler, bu sınırlamayı kolayca aşabilir ve kurumların hangi yorumların ilgili paydaşların tercihlerini gerçekten temsil ettiğini tespit etmesini son derece zorlaştırır.

Demokratik Hesap Verebilirliğe Yönelik Tehditler

Sağlıklı bir demokrasi ayrıca vatandaşların hükümet yetkililerini eylemlerinden sorumlu tutabilmelerini gerektirir; özellikle de özgür ve adil seçimler yoluyla. Ancak sandık sorumluluğunun etkili olması için seçmenlerin temsilcileri tarafından kendi adlarına gerçekleştirilen eylemler hakkında bilgiye erişebilmeleri gerekir. 14  Seçmenlerin uzun zamandır siyasi bilgi için güvendiği kitle iletişim araçlarındaki partizan önyargının seçim sonuçlarını etkileyebileceği endişesi uzun zamandır devam etmektedir, ancak üretken yapay zeka seçim bütünlüğüne çok daha büyük bir tehdit oluşturmaktadır.

Yaygın olarak bilindiği üzere, yabancı aktörler 2016 ABD başkanlık seçimlerini etkilemek için koordineli bir çabayla bir dizi yeni teknolojiyi kullandılar. 2018 Senato İstihbarat Komitesi raporunda şunlar belirtildi:

Amerikalılar gibi görünen bu (Rus) ajanlar, hedefli reklamlar, kasıtlı olarak sahte haber makaleleri, kendi ürettikleri içerik ve sosyal medya platformu araçlarını kullanarak Amerika Birleşik Devletleri’ndeki on milyonlarca sosyal medya kullanıcısıyla etkileşime girdiler ve onları aldatmaya çalıştılar. Bu kampanya, Amerikalılar’ı toplumsal, ideolojik ve ırksal farklılıklar temelinde kutuplaştırmayı amaçladı, gerçek dünya olaylarını kışkırttı ve yabancı bir hükümetin ABD başkanlık seçimlerinde Rusya’nın tercih ettiği adaya gizli desteğinin bir parçasıydı. 15

Kapsam ve ölçek açısından benzeri görülmemiş olsa da, etki kampanyasındaki birkaç kusur etkisini sınırlamış olabilir. 16  Rus ajanların sosyal medya paylaşımlarında, yanlış yerleştirilmiş veya eksik bir makale gibi ana dili İngilizce olan birinin yapmayacağı ince ama fark edilir dilbilgisi hataları vardı; bu, paylaşımların sahte olduğunun açık işaretleriydi. Ancak ChatGPT, her kullanıcıyı ana dili İngilizce olan biriyle eşdeğer kılıyor. Bu teknoloji halihazırda tamamen spam siteleri oluşturmak ve siteleri sahte yorumlarla doldurmak için kullanılıyor. Teknoloji sitesi  The Verge,  “haftada 200 ila 250 makale” üretebilecek bir “AI editörü” arayan bir iş ilanı yayınladı; bu da editörün “yenile” düğmesine tıklamasıyla akıcı İngilizce olarak büyük miktarda içerik üretebilen üretken AI araçları aracılığıyla işin yapılacağını açıkça ima ediyor. 17  Potansiyel siyasi uygulamalar sayısızdır. Son araştırmalar, AI tarafından üretilen propagandanın, insanlar tarafından yazılan propaganda kadar inandırıcı olduğunu gösteriyor. 18  Bu, mikro hedefleme için yeni kapasitelerle birleştiğinde, dezenformasyon kampanyalarında devrim yaratabilir ve bunları 2016 seçimlerini etkileme çabalarından çok daha etkili hale getirebilir. 19  Sürekli bir hedefli yanlış bilgi akışı, seçmenlerin seçilmiş yetkililerin eylem ve performanslarını nasıl algıladıklarını o kadar çarpıtabilir ki, seçimler gerçek bir hesap verebilirlik mekanizması sağlamayı bırakabilir; çünkü insanların neye oy verdiklerinin öncülü bile olgusal olarak şüphelidir. 20

Demokratik Güvene Yönelik Tehditler

Üretken yapay zekadaki ilerlemeler, kötü niyetli aktörlerin, belirli demografik özelliklere ve hatta bireylere hitap etmek için mikro hedefli içerikler de dahil olmak üzere, büyük ölçekte yanlış bilgi üretmesine olanak tanıyabilir. Sosyal medya platformlarının yaygınlaşması, yanlış bilginin belirli seçmen gruplarına etkili bir şekilde yönlendirilmesi de dahil olmak üzere zahmetsizce yayılmasına olanak tanır. Araştırmalar, siyasi yelpazedeki okuyucuların insan yapımı ve yapay zeka tarafından üretilen içerikler arasında ayrım yapamamasına rağmen (hepsini makul bulsalar da), yanlış bilginin okuyucuların fikirlerini mutlaka değiştirmeyeceğini göstermektedir. 21  Siyasi ikna, özellikle kutuplaşmış bir siyasi ortamda zordur. 22  Bireysel görüşler oldukça yerleşik olma eğilimindedir ve insanların önceki duygularını değiştirebilecek çok az şey vardır.

Risk, sahte içerikler (metin, resim ve video) çevrimiçi olarak çoğaldıkça, insanların neye inanacaklarını bilemeyecekleri ve dolayısıyla tüm bilgi ekosistemine güvenmeyecekleridir. Medyaya olan güven zaten düşüktür ve sahte içerik üretebilen araçların yaygınlaşması bu güveni daha da aşındıracaktır. Bu da hükümete olan güvenin tehlikeli derecede düşük seviyelerini daha da zayıflatabilir. Sosyal güven, demokratik toplumları bir arada tutan temel bir yapıştırıcıdır. Vatandaş katılımını ve siyasi katılımı besler, siyasi kurumlara olan güveni güçlendirir ve demokratik gerilemeye ve otoriterliğe karşı önemli bir siper olan demokratik değerlere saygıyı teşvik eder. 23

Güven birden fazla yönde işler. Siyasi elitler için, duyarlılık, aldıkları mesajların meşru bir şekilde seçmen tercihlerini temsil ettiğine ve belirli bir bakış açısını ilerletmek uğruna kamuoyunun duygusunu yanlış temsil eden koordineli bir kampanyaya ihtiyaç duymaz. “Astroturfing” vakaları siyasette yeni bir şey değildir, ABD’deki örnekleri en azından 1950’lere kadar uzanır. 24  Ancak, yapay zekadaki ilerlemeler bu tür çabaları her yerde bulunma ve tespit edilmesini daha zor hale getirme tehdidinde bulunmaktadır.

Vatandaşlar için güven, siyasi katılımı ve katılımı motive edebilir ve demokratik kurumlara ve uygulamalara yönelik tehditlere karşı direnci teşvik edebilir. Amerikalıların hükümete olan güvenindeki son yarım yüzyıldaki dramatik düşüş, ABD siyasetindeki en çok belgelenen gelişmelerden biridir. 25  Bu erozyona birçok faktör katkıda bulunmuş olsa da, medyaya güven ve hükümete güven sıkı bir şekilde bağlantılıdır. 26  Vatandaşları, doğruluğu şüpheli yapay zeka tarafından oluşturulmuş içeriklerle bombardımana tutmak, medyaya olan güveni ciddi şekilde tehdit edebilir ve hükümete olan güven için ciddi sonuçlar doğurabilir.

Tehditleri Azaltmak

Sorunu çerçevelemek için motivasyonları ve teknolojiyi anlamak önemli bir ilk adım olsa da, bir sonraki adımın önleyici tedbirler formüle etmek olduğu açıktır. Bu tür tedbirlerden biri, AI tarafından üretilen içeriği tespit etmek için AI üreten aynı makine öğrenme modellerini eğitmek ve devreye sokmaktır. Yapay zekada metin oluşturmak için kullanılan sinir ağları, bu içeriği üreten dil, kelime ve cümle yapılarını da “bilir” ve bu nedenle AI tarafından üretilen metin ile insan tarafından yazılan metin arasındaki kalıpları ve ayırt edici özellikleri ayırt etmek için kullanılabilir. AI tespit araçları hızla yaygınlaşıyor ve teknoloji adapte oldukça adapte olmaları gerekecek, ancak öğretmenlerin sınıfta intihal tespit etmek için kullandıklarına benzer bir “Turnitin” tarzı model kısmi bir çözüm sağlayabilir. Bu araçlar, esasen AI tarafından üretilen metnin ayırt edici özellikleri olan metin içindeki kalıpları tespit etmek için algoritmalar kullanır, ancak araçlar doğruluk ve güvenilirlik açısından yine de farklılık gösterecektir.

Daha da temelde, bu dil modellerini üretmekten sorumlu platformlar, sosyal medya platformlarının farkına varmasının yıllar aldığı şeyin giderek daha fazla farkına varıyor: Ürettikleri içerik, bu içeriğin nasıl çerçeveleneceği ve hatta ne tür içeriğin yasaklanacağı konusunda bir sorumlulukları var. ChatGPT’ye üretken yapay zekanın nükleer komuta ve kontrole karşı nasıl kötüye kullanılabileceği hakkında soru sorduğunuzda, model “Üzgünüm, buna yardımcı olamam” şeklinde yanıt veriyor. ChatGPT’nin yaratıcısı olan OpenAI, algoritmalarında kodlanmış değerleri demokratikleştirmek için harici araştırmacılarla da çalışıyor; bu değerler arasında hangi konuların arama çıktıları için yasak olması gerektiği ve seçilmiş yetkililerin siyasi pozisyonlarının nasıl çerçeveleneceği yer alıyor. Gerçekten de, üretken yapay zeka daha yaygın hale geldikçe, bu platformların yalnızca teknolojiyi yaratma değil, bunu etik ve politik olarak bilgilendirilmiş bir değerler kümesiyle yapma sorumluluğu var. Özellikle kutuplaşmış, aşırı partizan toplumlarda neyin etik olduğuna kimin karar vereceği sorusu yeni değil. Sosyal medya platformları yıllardır bu tartışmaların merkezinde yer alıyor ve şimdi üretken AI platformları da benzer bir durumda. En azından, seçilmiş kamu görevlileri hesap verebilir, şeffaf algoritmalar üretmek için bu özel firmalarla yakın bir şekilde çalışmaya devam etmelidir. Yedi büyük üretken AI firmasının Biden Yönetimi ile koordinasyon halinde gönüllü AI güvencelerine bağlı kalma kararı doğru yönde atılmış bir adımdır.

Son olarak, dijital okuryazarlık kampanyalarının daha bilgili bir tüketici yaratarak üretken yapay zekanın olumsuz etkilerine karşı koruma sağlamada oynayacakları bir rol vardır. Tıpkı sinir ağlarının üretken yapay zekanın nasıl konuştuğunu ve yazdığını “öğrenmesi” gibi, bireysel okuyucular da öğrenebilir. Çalışmamızda eyalet meclis üyelerine amaçları ve tasarımı hakkında bilgi verdikten sonra, bazıları seçmenlerinin nasıl yazdığını bildikleri için yapay zeka tarafından oluşturulan e-postaları tespit edebildiklerini söyledi; Batı Virginia veya New Hampshire’dan bir seçmenin standart yerel diline aşinalar. Aynı tür ayırt etme yeteneği, çevrimiçi içerik okuyan Amerikalılar için de mümkündür. ChatGPT gibi büyük dil modelleri, belirli bir formül yazma biçimine sahiptir; belki de beş paragraflık makale sanatını biraz fazla öğrenmişlerdir.

“Amerika Birleşik Devletleri’nin füze siloları nerede?” sorusunu sorduğumuzda ChatGPT tipik bir yavanlıkla cevap verdi: “Amerika Birleşik Devletleri’nin birçok eyaletinde, özellikle ülkenin orta ve kuzey kesimlerinde füze siloları bulunmaktadır. Füze siloları, ABD nükleer caydırıcılık stratejisinin bir parçası olarak kıtalararası balistik füzelere (ICBM’ler) ev sahipliği yapmaktadır. Füze silolarının belirli konumları ve sayısı, operasyonel değişiklikler ve modernizasyon çabaları nedeniyle zamanla değişebilir.”

Bu yanıtta yanlış bir şey yok, ancak ChatGPT’yi düzenli olarak kullanan herkes için oldukça tahmin edilebilir. Bu örnek, AI modellerinin sıklıkla ürettiği dil türüne örnektir. Konu ne olursa olsun içerik çıktılarını incelemek, insanların sahte içerikleri gösteren ipuçlarını tanımasına yardımcı olabilir.

Daha genel olarak, halihazırda geçerlilik kazanan dijital okuryazarlık tekniklerinden bazıları, AI tarafından üretilen metinlerin, videoların ve görsellerin yaygınlaştığı bir dünyada muhtemelen geçerli olacaktır. Herkesin farklı medya kuruluşlarındaki dijital içeriklerin gerçekliğini veya olgusal doğruluğunu doğrulaması ve papanın Balenciaga kabarık paltosu içinde olduğu viral (sahte olsa da) görsel gibi şüpheli görünen her şeyi çapraz kontrol ederek bunun derin bir sahte mi yoksa gerçek mi olduğunu belirlemesi standart bir uygulama olmalıdır. Bu tür uygulamalar ayrıca, örneğin bir seçim dönemi sırasında Facebook’ta AI tarafından üretilen materyali siyasi bir bağlamda ayırt etmeye yardımcı olmalıdır.

Ne yazık ki, internet hala büyük bir doğrulama önyargısı makinesi olmaya devam ediyor. Bir kişinin siyasi görüşlerine uyduğu için makul görünen bilgiler, o kişiyi hikayenin doğruluğunu kontrol etmeye daha az yöneltebilir. Kolayca üretilen sahte içeriklerin olduğu bir dünyada, birçok kişi siyasi nihilizm (yani, kendi partizanları dışında hiçbir şeye veya kimseye inanmamak) ile sağlıklı şüphecilik arasında ince bir çizgide yürümek zorunda kalabilir. Nesnel gerçeklerden veya en azından onu haberlerden ayırt etme yeteneğinden vazgeçmek, demokratik toplumun dayanması gereken güveni yerle bir edecektir. Ancak artık “görmenin inanmaktır” olduğu bir dünyada yaşamıyoruz. Bireyler medya tüketimi, okuma ve izleme konusunda “güven ama doğrula” yaklaşımını benimsemeli ancak materyalin güvenilirliğini oluşturma açısından disiplin uygulamalıdır.

Üretken AI gibi yeni teknolojiler topluma muazzam faydalar sağlamaya hazır – ekonomik, tıbbi ve hatta muhtemelen politik olarak. Gerçekten de, yasa koyucular yapay zeka araçlarını sahte içerikleri tespit etmeye ve seçmenlerinin endişelerinin doğasını sınıflandırmaya yardımcı olmak için kullanabilirler, her ikisi de yasa koyucuların politikalarında halkın iradesini yansıtmalarına yardımcı olur. Ancak yapay zeka aynı zamanda politik tehlikeler de oluşturur. Ancak potansiyel risklerin ve olumsuz etkilerini hafifletmek için bariyerlerin uygun şekilde farkında olarak, demokratik toplumları koruyabilir ve hatta güçlendirebiliriz.

Referanslar.
  1. Nathan E. Sanders ve Bruce Schneier, “ChatGPT Demokrasiyi Nasıl Ele Geçiriyor”,  New York Times, 15 Ocak 2023,  www.nytimes.com/2023/01/15/opinion/ai-chatgpt-lobbying-democracy.html .
  2. Kevin Roose, “Yapay Zeka ‘Yok Olma Tehlikesi’ Taşıyor, Sektör Liderleri Uyarıyor”,  New York Times, 30 Mayıs 2023,  www.nytimes.com/2023/05/30/technology/ai-threat-warning.html .
  3. Alexey Turchin ve David Denkenberger, “Yapay Zeka ile Bağlantılı Küresel Felaket Risklerinin Sınıflandırılması”,  AI & Society 35 (Mart 2020): 147–63.
  4. Robert Dahl,  Poliarşi: Katılım ve Muhalefet (New Haven: Yale University Press, 1972), 1.
  5. Michael X. Delli Carpini ve Scott Keeter,  Amerikalılar Politika Hakkında Ne Biliyor ve Neden Önemli (New Haven: Yale University Press, 1996); James Kuklinski ve diğerleri, “’Sadece Gerçekler Hanımefendi’: Politik Gerçekler ve Kamuoyu,”  Amerikan Siyaset ve Sosyal Bilimler Akademisi Yıllıkları  560 (Kasım 1998): 143–54; Martin Gilens, “Siyasi Cehalet ve Toplu Politika Tercihleri,”  Amerikan Siyaset Bilimi Dergisi  95 (Haziran 2001): 379–96.
  6. Andrea Louise Campbell,  Politikalar Vatandaşları Nasıl Yaratır: Kıdemli Politik Aktivizm ve Amerikan Refah Devleti (Princeton: Princeton University Press, 2003); Paul Martin ve Michele Claibourn, “Vatandaş Katılımı ve Kongre Duyarlılığı: Katılımın Önemli Olduğuna Dair Yeni Kanıtlar”,  Yasama Çalışmaları Dergisi  38 (Şubat 2013): 59–81.
  7. Sarah Kreps ve Doug L. Kriner, “Yeni Teknolojilerin Demokratik Temsil Üzerindeki Potansiyel Etkisi: Bir Saha Deneyinden Elde Edilen Kanıtlar”,  Yeni Medya ve Toplum(2023), https://doi.org/10.1177/14614448231160526 . 
  8. Elena Kagan, “Başkanlık Yönetimi”,  Harvard Hukuk Dergisi114 (Haziran 2001): 2245–2353.
  9. Michael Asimow, “McNollgast’ı Sınırlara Zorlamak Üzerine: Düzenleyici Maliyetler Sorunu”,  Hukuk ve Çağdaş Sorunlar57 (Kış 1994): 127, 129.
  10. Kenneth F. Warren,  Siyasi Sistemde İdari Hukuk (New York: Routledge, 2018).
  11. Federal E-Kural Yapımının Durumu ve Geleceği Komitesi, Amerikan Barolar Birliği, “Potansiyelin Gerçekleştirilmesi: Federal E-Kural Yapımının Geleceği”, 2008,  https://scholarship.law.cornell.edu/cgi/viewcontent.cgi?article=2505&context=facpub.
  12. Jason Webb Yackee ve Susan Webb Yackee, “İş Dünyasına Yönelik Bir Önyargı mı? ABD Bürokrasisi Üzerindeki Çıkar Grubu Etkisinin Değerlendirilmesi”,  Siyaset Dergisi 68 (Şubat 2006): 128–39; Cynthia Farina, Mary Newhart ve Josiah Heidt, “Kural Koyma ve Demokrasi: Önemli Kamu Katılımını Yargılamak ve Teşvik Etmek”,  Michigan Çevre ve İdari Hukuk Dergisi  2, sayı 1 (2013): 123–72.
  13. Edward Walker. “Milyonlarca Sahte Yorumcu FCC’den Ağ Tarafsızlığını Sonlandırmasını İstedi: ‘Astroturfing’ Bir İş Modelidir”,  Washington Post Monkey Cage blogu, 14 Mayıs 2021,  www.washingtonpost.com/politics/2021/05/14/millions-fake-commenters-asked-fcc-end-net-neutrality-astroturfing-is-business-model/ .
  14. Adam Przeworksi, Susan C. Stokes ve Bernard Manin (editörler),  Demokrasi, Hesap Verebilirlik ve Temsil(New York: Cambridge University Press, 1999).
  15. ABD Senatosu İstihbarat Seçme Komitesi’nin Rusya’nın Aktif Önlem Kampanyaları ve 2016 ABD Seçimlerine Müdahalesi Hakkındaki Raporu, Senato Raporu 116–290,  www.intelligence.senate.gov/publications/report-select-committee-intelligence-united-states-senate-russian-active-measures.
  16. 2016 seçimlerindeki yanlış bilgilendirmenin potansiyel olarak sınırlı etkileri hakkında daha genel olarak Andrew M. Guess, Brendan Nyhan ve Jason Reifler, “2016 ABD Seçimlerinde Güvenilmez Web Sitelerine Maruz Kalma”,  Nature Human Behavior 4 (2020): 472–80’e bakın.
  17. James Vincent, “Yapay Zeka Eski Web’i Öldürüyor ve Yeni Web Doğmakta Zorlanıyor”,  The Verge, 26 Haziran 2023,  www.theverge.com/2023/6/26/23773914/ai-large-language-models-data-scraping-generation-remaking-web .
  18. Josh Goldstein ve diğerleri, “Yapay Zeka İkna Edici Propaganda Yazabilir mi?” çalışma belgesi, 8 Nisan 2023,  https://osf.io/preprints/socarxiv/fp87b.
  19. Sarah Kreps, “Çevrimiçi Yanlış Bilgilendirmede Teknolojinin Rolü”, Brookings Enstitüsü, Haziran 2020,  www.brookings.edu/articles/the-role-of-technology-in-online-misinformation.
  20. Bu şekilde, AI tarafından üretilen yanlış bilgi, görevdeki performansı ile seçmen inançları arasındaki ilişki olan “duyarsızlaştırmayı” büyük ölçüde artırabilir ve demokratik hesap verebilirliği zayıflatabilir. Bkz. Andrew T. Little, Keith E. Schnakenberg ve Ian R. Turner, “Motivated Reasoning and Democratic Accountability”,  American Political Science Review116 (Mayıs 2022): 751–67.
  21. Sarah Kreps, R. Miles McCain ve Miles Brundage, “Uydurulmaya Uygun Tüm Haberler,”  Deneysel Siyaset Bilimi Dergisi 9 (İlkbahar 2022): 104–17.
  22. Kathleen Donovan ve diğerleri, “Motivasyonlu Muhakeme, Kamuoyu ve Başkanlık Onayı”  Political Behavior 42 (Aralık 2020): 1201–21.
  23. Mark Warren, ed.,  Democracy and Trust(Demokrasi ve Güven) (New York: Cambridge University Press, 1999); Robert Putnam,  Bowling Alone: ​​Amerikan Toplumunun Çöküşü ve Canlanması (New York: Simon and Schuster, 2000); Marc Hetherington,  Why Trust Matters: Declining Political Trust and the Demise of American Liberalism  (Princeton: Princeton University Press, 2005); Pippa Norris, ed.,  Critical Citizens: Global Support for Democratic Governance  (New York: Oxford University Press, 1999); Steven Levitsky ve Daniel Ziblatt,  How Democracies Die  (New York: Crown, 2019).
  24. Lewis Anthony Dexter, “Kongre Üyeleri Ne Duyuyor: Posta”,  Public Opinion Quarterly 20 (İlkbahar 1956): 16–27.
  25. Diğerlerinin yanı sıra bkz. Pew Araştırma Merkezi, “Hükümete Kamu Güveni: 1958–2022”, 6 Haziran 2022,  https://www.pewresearch.org/politics/2023/09/19/public-trust-in-government-1958-2023/.
  26. Thomas Patterson,  Out of Order(New York: Knopf, 1993); Joseph N. Cappella ve Kathleen Hall Jamieson, “Haber Çerçeveleri, Politik Alaycılık ve Medya Alaycılığı”,  Amerikan Siyaset ve Sosyal Bilimler Akademisi Yıllıkları  546 (Temmuz 1996): 71–84.

Telif Hakkı © 2023 Ulusal Demokrasi Vakfı ve Johns Hopkins Üniversitesi Yayınları

Resim Kredisi: Clement Mahoudeau / AFP via Getty Images

 

 

Yazarlar Hakkında

Sarah Kreps, Cornell Üniversitesi Hükümet Bölümü’nde John L. Wetherill Profesörü, yardımcı hukuk profesörü ve Teknoloji Politikaları Enstitüsü’nün müdürüdür.

Sarah Kreps’in tüm çalışmalarını görüntüle

Doug Kriner, Cornell Üniversitesi Hükümet Bölümü’nde Amerikan Kurumları alanında Clinton Rossiter Profesörüdür.

 

https://www.journalofdemocracy.org/articles/how-ai-threatens-democracy/

Scroll to Top