Yapay zeka güvenliği kitlesel bir harekete dönüşecek mi?

2023’te Disney ofisleri önünde SAG-AFTRA üyelerinin düzenlediği grevde taşınan bir pankart. Fotoğraf: Getty/Mario Tama

Bazı yapay zeka güvenliği aktivistleri, bu topluluğun iklim değişikliğiyle mücadeledeki stratejilerden örnek alarak geniş bir kamuoyu desteği oluşturması gerektiğini düşünüyor, ancak herkes aynı fikirde değil.

Alys Key / 28 Kasım 2025

Geçtiğimiz haftanın sonlarında, OpenAI’nin San Francisco ofisleri güvenlik gerekçesiyle kapatıldı . Yetkililer ve OpenAI güvenlik birimi, yapay zekâ karşıtı savunuculuk grubu Stop AI’nin kıdemli bir üyesi olduğu söylenen bir aktivist tarafından yapıldığı iddia edilen bir tehdit konusunda alarm verdi. Hem Stop AI hem de bir diğer savunuculuk grubu olan PauseAI, her türlü şiddeti kınayan açıklamalar yayınladı. Bu özel olayla ilgili ayrıntılar henüz ortaya çıkarken, yapay zekâ güvenliği etrafında bir aktivizm hareketi oluşturmanın sakıncaları hakkında soruları gündeme getirdi.

Tarihsel olarak, yapay zeka güvenliği hareketi çoğunlukla perde arkasında çalışmış ve değişimi sağlamak için “içeriden oyun” yaklaşımını benimsemiştir. Uyum savunucuları genellikle öncü laboratuvarlarda güvenlik araştırmaları yapan işlerde bulunabilirler. Ayrıca, mevzuatı etkileyebilecekleri hükümette veya ihtiyatlı davranılması için lobi yapabilecekleri düşünce kuruluşlarında da görev alabilirler.

Bu yaklaşım içe dönük görünebilir. Sosyal Değişim Laboratuvarı tarafından bu yılın başlarında yayınlanan bir raporda , “Savunuculuk faaliyetlerinin çoğu içe dönük, uzman odaklı, yavaş ilerleyen ve daha geniş kamuoyunun enerjisinden kopuk olmuştur” sonucuna varılmıştır.

Ancak son iki yılda, bazıları iklim savunuculuğu gibi diğer davaların benimsediği stratejilere daha benzer stratejiler benimsemeye başladı: kitlesel bir hareket inşa etme çabası. Protestolar, açlık grevleri ve oldukça görünür kampanyalar aracılığıyla, yapay zeka güvenliğini niş bir endişe olmaktan çıkarıp toplumun tamamını ilgilendiren bir mesele haline getirmeyi hedeflediler.

Bu çabaların sonucunda, yapay zeka güvenliği artık bir yol ayrımında: niş bir alan olarak mı kalmalı, yoksa birleştirici bir slogan mı olmalı?

‘İç oyun’ yaklaşımı

Hükümet düzeyinde, içeriden gelenlere odaklı bir strateji somut sonuçlar doğurdu. Biden yönetimi, Ekim 2023’te şeffaflık rejimini de içeren bir Yapay Zeka Başkanlık Kararnamesi çıkardı; İngiltere’nin çığır açan Yapay Zeka Güvenlik Enstitüsü ise önde gelen laboratuvarlardan en iyi teknik yetenekleri model değerlendirmeleri yapmak üzere başarıyla bünyesine kattı ve dünya çapında benzer ulusal güvenlik kurumlarından oluşan bir ağın oluşmasına öncülük etti. Mevzuat cephesinde ise, 2024’te kabul edilen AB Yapay Zeka Yasası, düzenleyici kurumlarda çalışan yapay zeka güvenliği savunucularının savunduğu kırmızı ekip çalışmaları ve şeffaflık gerekliliklerini içeriyordu. Ancak bu başarılar kırılgan olduğunu kanıtladı; Trump yönetimi Biden’ın Başkanlık Kararnamesini iptal etti ve AB, Yapay Zeka Yasasının uygulanmasını sulandırmaya ve geciktirmeye hazırlanıyor.

Öncü laboratuvarların kendi içlerinde, güvenliğe odaklı araştırmacılar, hizalama araştırmalarına önemli miktarda işlem gücü tahsis edilmesi için başarılı bir şekilde savunuculuk yapmışlardır. Güvenliğe değer veren bir endüstri kültürü, araştırmacıların yetersiz güvenlik önlemlerine sahip olduğunu düşündükleri laboratuvarları eleştirmekte de hızlı davrandıkları anlamına gelir.

Ancak, güvenlik savunucularının çalışmalarının ” güvenlik maskesi ” olarak kullanılabileceği ve laboratuvarların giderek daha güçlü modeller geliştirmeye tam gaz devam edebileceği yönünde endişeler var.

PauseAI ABD’nin organizasyon direktörü olan ve kariyerine çevre politikası alanında başlayan Felix de Simone, Transformer’a verdiği demeçte, iklim kampanyalarından öğrendiği derslerden birinin “endüstriye güvenmememiz ve anlatıyı belirlemesine izin vermememiz” olduğunu söyledi.

“İklim değişikliği hareketi bunu on yıllar önce, Exxon gibi şirketlerin fosil yakıtların etkileri hakkında bilerek yalan söylediği zaman öğrendi,” dedi e-posta yoluyla. “Ancak yapay zeka güvenliği topluluğundaki bazı kişiler, tüm öncü yapay zeka şirketlerinin hepimizi tehlikeye atan aynı dibe doğru yarışta yer aldığını bilmelerine rağmen, bazı yapay zeka şirketlerini ‘iyi adamlar’, diğerlerini ise ‘kötü adamlar’ olarak görmeye devam ediyor.”

Yapay zekânın son yıllarda siyasi açıdan tartışmalı bir konu haline gelmesi ve milyonlarca dolarlık lobi faaliyetinin hedefi olmasıyla oyun da değişti. Ağustos ayında, Andreessen Horowitz, Perplexity ve OpenAI’den Greg Brockman gibi isimlerin desteğiyle 100 milyon dolardan fazla fonla Leading the Future adlı bir süper PAC ağı kuruldu . Amacı neydi? “Yapay zekâ yanlısı gündemle uyumlu adayları desteklemek ve uyumlu olmayanlara karşı çıkmak”. Bu arada hükümetler, teknolojinin ekonomik faydalarına büyük yatırımlar yapıyor.

Bu tür çıkarlar karşısında, hızlı yapay zekâ gelişimine karşı daha fazla sayıda insanı harekete geçirmenin gerekliliği, bunun sonuçlarından endişe duyanlar için daha da ikna edici hale geliyor.

Ya her şey ya da hiçbir şey.

“Yapay zekâ gelişmelerinin doğası (hızlı, öngörülemez, geniş kapsamlı) göz önüne alındığında, sosyal hareketler özellikle yanıt vermeye uygun olabilir,” diye yazdı Sosyal Değişim Laboratuvarı araştırmacıları raporlarında. “Teknoloji şirketleri ve politika yapıcılar üzerinde kamuoyunun istediği ihtiyatlılığı göstermeleri için gerekli baskıyı kurmada kritik rol oynayabilirler; hareketler, mevcut ve ortaya çıkan ciddi ve çok sayıda endişenin doğru şekilde ele alınmasını talep edebilir.”

Yapay zekâya ilişkin kamuoyu görüşü temkinli bir iyimserlik içeriyor, ancak çoğunluk düzenlemeden yana. Ada Lovelace Enstitüsü’nün İngiliz kamuoyuna yönelik en son iki yılda bir yaptığı anketinde, katılımcıların %72’si yasa ve düzenlemelerin yapay zekâ konusunda kendilerini daha rahat hissetmelerini sağlayacağını belirtirken, bu oran 2023 anketinde %62 idi. Ipsos verilerine göre , küresel olarak yapay zekâ şirketlerinin adil ve etik uygulamalara sahip olup olmadığına dair şüpheler artıyor .

Ancak bu tedirginliği eyleme ve daha geniş çaplı sivil katılıma dönüştürmek zorlu bir iştir.

Bazı yorumcular, yapay zekanın uzun vadeli riskleri konusunda endişe duyanların yeşil hareketin yöntemini örnek almaları gerektiğini savundu. Bilgisayar bilimci Erik Hoel, 2023 yılında Substack’te yayınladığı bir yazıda , “1970’lerde doğru olan, iklim değişikliğini çözmek için kusursuz bir plan ortaya koymak değildi” diye yazdı . “Ya da kimse böyle bir plan sunmadığında pes etmek de değildi. Doğru olan aktivizmdi. Bu nedenle yapay zeka güvenliği savunucuları, etkili olanın ne olduğunu görmek için iklim aktivistlerine bakmalıdır. Bu da temelde panik, lobi faaliyetleri ve öfkedir.”

İklim hareketinin başarılarından biri şüphesiz ki, farklı grupları ortak bir amaç etrafında bir araya getirebilme yeteneği olmuştur. Trafik kirliliği gibi acil zararları uzun vadeli risklerle ilişkilendirmek, küresel ölçekteki sorunları somut hale getirmeye yardımcı olmuştur.

Sosyal Değişim Laboratuvarı’nda araştırma danışmanı olarak çalışan ve raporun ortak yazarlarından Cathy Rogers, Transformer’a verdiği demeçte, yapay zeka güvenliğinin iklim hareketinden ders çıkarabileceğini, çünkü her ikisinin de “düşünmesi bile çok korkutucu olan şeylerle” ilgilendiğini söylüyor.

“Öğrenilen en önemli şeylerden biri, stratejik ve taktiksel çeşitlilikle ilgili,” diye açıklıyor. Hareketin bazı kesimleri, “iklim acil durumu” gibi kavramları yaygınlaştırarak kamuoyunun düşüncesini büyük ölçekte değiştirmeye odaklanıyor. Diğer gruplar ise, şahsen protesto ve yerel kampanyalardan enerji şirketlerinde aktivist hissedar olmaya veya kamu görevlerine çevreci adaylar seçmeye kadar her şeyi kullanarak belirli değişiklikler için baskı yapıyor.

Ona göre bu karmaşık yapının işe yaramasının nedeni, genel bir hedef üzerinde mutabakat olmasıdır: ısınma seviyesini yavaşlatmak ve tersine çevirmek. Hareket içinde birçok görüş ayrılığı var, ancak bu birleşik amaç, onu kitlelere hitap edecek kadar tutarlı kılıyor.

Yapay zekâ risk ortamı da benzer şekilde çeşitlidir, özellikle varoluşsal riskin ötesine geçerek telif hakkı, psikolojik etkiler, iş gücü piyasası ve veri gizliliği gibi konuları da içerdiğinde. Yine de, Hollywood senaristlerinin yapay zekâ maddeleri nedeniyle greve gitmesi, yerel toplulukların bir veri merkezini protesto etmesi ve araştırmacıların tekillik üzerine raporlar hazırlaması arasında çok az bir tutarlılık vardır.

İşe yarayacak mı?

Rogers, yapay zeka güvenliği ve etiği alanındaki birbirinden farklı kesimlerin böyle tek bir hedef üzerinde anlaşmaya varıp varamayacağını yüksek sesle sorguluyor. Farklı grupların düzenli olarak bir araya gelip ortak bir amaç bulmaları halinde bunun mümkün olabileceğini öne sürüyor. Ancak birçok kişi bunun gerçekleşebileceğinden şüphe duyuyor.

Eylül ayında Substack’te yapay zeka güvenliği hareketi oluşturma fikrine karşı çıkan araştırmacı ve yazar Anton Leicht, bu konunun geniş bir koalisyon yaklaşımına uygun olmadığını yazdı . “Bence bu hareket indirgemeci tonlarla ele alınacak ve sonuçta çözümsüz veya yanlış yönlendirilmiş önerilerle politika tartışmasını bulandıracak” diye savundu.

Bu yaygın bir endişe. 2021’de yapay zeka güvenliği üzerine çalışmaya başlayan ve şu anda Y-Combinator destekli Hud Evals’te çalışan eski iklim aktivisti Minh Nguyen, Transformer’a e-posta yoluyla yaptığı açıklamada, yapay zeka güvenliği ile daha geniş yapay zeka karşıtı gruplar arasındaki bir ittifakın “durumu gerçekten kötü ve muhtemelen ters etki yaratacak şekilde anlayan tutkulu insanlar tarafından alt edileceğini” söyledi. İki tarafın da aynı fikirde olmadığı bir örnek olarak veri merkezlerindeki su kullanımını gösterdi. Bu ortak gerçeklik olmadan, öncelikler konusunda anlaşmak zor olabilir.

Rogers ise teknik ve politika alanındaki birçok kişinin genel halkın karmaşık konuları kavrama yeteneğini hafife aldığını düşünüyor. “Açıkçası, halkın katılımı konusunda çok kaba ve küçümseyici davranan bazı insanlar var,” diyor. “Ve bence, halkın katılımının olmaması gerektiğini söyleyenler de var; bunun biraz daha makul bir nedeni var, o da bunun gerçekten kutuplaşmaya yol açacağından endişe etmeleri.”

Bu durum PauseAI ABD için de bir endişe kaynağı. De Simone, kuruluşun, önerilen çözümlerle hemfikir olmaları koşuluyla, yapay zekâ konusunda çeşitli nedenlerle endişe duyan herkesi kucaklayan geniş bir yelpazeye sahip olduğunu söylüyor. “Yapay genel zekâya ara verilmesi ABD kamuoyunda geniş çapta popüler ve bizim görevimiz bu popülerlikten yararlanıp onu eyleme dönüştürmek,” dedi e-posta yoluyla.

Ancak, iki partinin de uzlaşabileceği bir mesajlaşmanın önemini vurgulayan yetkili, yeşil hareket gibi oluşumlar büyüdükçe hassas siyasi konularla karşı karşıya kalabileceklerini belirtti.

“Ne yazık ki, iklim değişikliği ABD’de siyasi olarak kutuplaşmış bir konu haline geldi,” dedi. “Bu sonucu her ne pahasına olursa olsun önlememiz gerekiyor.”

Radikal Çizgi

Genişleyen yapay zeka güvenliği hareketi için bir diğer soru da, en katı görüşlü üyeleriyle nasıl başa çıkılacağıdır. Leicht, popüler bir stratejinin “makul yapay zeka güvenliği örgütlerini, uçuk kaçık protestocular olarak algılanan kişilerle ilişkilendirmeye maruz bıraktığını” yazmıştır.

Şunu belirtmek gerekir ki, yapay zeka aktivistlerinin büyük çoğunluğu şiddeti kınamaktadır. PauseAI de dahil olmak üzere birçok grup, üyelerinin herhangi bir yasadışı faaliyette bulunmasına izin vermemektedir.

Ancak, kadınların oy hakkından günümüzdeki iklim hareketine kadar tarih boyunca başarılı olmuş toplumsal hareketlerin her zaman daha çatışmacı bir yaklaşım sergilemeye istekli olanları olmuştur. Yol blokajlarından ve oturma eylemlerinden ekipman ve bina sabotajlarına kadar, “radikal kanat” olarak adlandırılan aktivistler, başkalarının hoşlanmadığı sınırları aşabilirler.

Rogers, “Bu durum olumlu olabilir; bir konunun önemini artırır ve herkesin faydasına olur,” diyor. “Ya da olumsuz olabilir; özellikle insanlar şiddet içeren şeyler yaparsa, hareketin itibarı zedelenir ve tüm hareketi aşağı çekebilir.”

O, Insulate Britain grubunu örnek gösteriyor. Ana yolları kapatma taktikleri halk arasında popüler olmasa da, Social Change Lab’ın araştırması, protestoların ev yalıtımı konusunun önemini büyük ölçüde artırdığını ortaya koyuyor. Insulate Britain’ın kendisi doğrudan eyleminin hedeflerine ulaşamadığını ilan etse de, aynı alanda çalışan daha ılımlı gruplar ivme kazanarak gerçek politika değişikliklerine yol açmayı başardı.

Bu tür eylemler, yapay zeka güvenliği hareketi içinde hala nispeten nadir görülüyor. Geçtiğimiz yıl For Humanity podcast’ine konuşan PauseAI ABD yöneticisi Holly Elmore, grubun yüz yüze protestolarının genellikle çok küçük çaplı olduğunu, çünkü yapay zeka güvenliği konusunu gerçekten anlayan kişilerin “protesto etmeyi sevmediklerini” söyledi.

Bu durum yavaş yavaş değişiyor. Bu yılın başlarında, San Francisco Körfez Bölgesi, İngiltere ve Hindistan’da bir avuç aktivist, süper zeki yapay zekanın geliştirilmesini protesto etmek için açlık grevine başladı. Açlık grevi, protesto tarihinin her döneminde şiddet içermeyen bir protesto biçimi olarak kullanılmıştır. Son yıllarda, Avustralya Hindistan Almanya ve İngiltere’deki bireyler , iklimle ilgili endişelerini hükümetlere iletmek için bu taktiği kullanmışlardır.

Ancak yapay zekâya karşı açlık grevi yapanlar, hükümetten harekete geçmesini istemek yerine, protestolarını doğrudan sınır laboratuvarlarına yönelttiler.

Londra’daki Google DeepMind ofislerinin önünde bir hafta boyunca açlık grevi yapan Michael Trazzi, Transformer’a verdiği demeçte, Hindistan’ın özgürlük hareketinin bir parçası olarak birçok kez açlık grevi yapan Mahatma Gandhi’nin örneğinden ilham aldığını söyledi. Trazzi ayrıca katıldığı kısa süreli bir PauseAI protestosundan da hayal kırıklığına uğramıştı ve görmezden gelinemeyecek daha etkili bir şey yapmak istiyordu. “Bir şirkete gerçekten baskı yapmak istiyorsanız, bu [bir günlük protesto] baskı yapmanın yolu değil. Onlara baskı yapmanın yolu, her gün gelerek, gerçekten rahatsız edici olarak, anında dikkat çekmektir.”

Bir kırılma noktası, şiddet içermeyen ancak teknik olarak yasa dışı olan faaliyetlere girişip girişmeme konusunda yaşanacak gibi görünüyor. Sivil itaatsizlik nedeniyle tutuklanmak, sivil haklar hareketi, kadın hakları savunucuları ve son zamanlarda iklim aktivistleri tarafından dikkat çekmek için kullanılan bir kampanya biçimi bile olabilir.

Şu anda çoğu grup yasaları çiğnemekten kaçınsa da, hareketin çekiciliğini genişletmenin doğası gereği, bireylerin dava adına yapmaya istekli oldukları şeyler üzerindeki kontrol kaçınılmaz olarak kaybolacaktır.

Öğrenme dersleri

Tüm bu endişelere rağmen, yapay zeka güvenliği ve etiği gruplarının her kesiminden insanlar, davaları için destek toplamak amacıyla çalışmalarına devam ediyor. Ve birçoğu değişime ulaşabilecekleri konusunda iyimser.

Trazzi, hem yapay zekâ düzenlemesini destekleyen anketlerde hem de kendisininki gibi protestolara medyada ve internette gösterilen ilgide, kamuoyunda zaten bir destek olduğuna dair kanıtlar görüyor. “Yani mesele onları ikna etmekten ziyade onlara şunu söylemek: Demokrasimizde temsilcilerinize bir şeyler olduğunu bildirmek için bir sesiniz var.”

PauseAI UK’nin lideri Joseph Miller, son zamanlarda ana hedeflerine ulaşmış bir başka hareketin, Britanya’daki köleliğin kaldırılması hareketinin dersleri üzerine düşünüyor.

“Köleliğin kaldırılması hareketi, kamuoyunun düşüncelerini çok hızlı bir şekilde değiştirmede çok başarılı oldu,” diyor Transformer’a . “Bu yüzden bunun bizim için umut verici bir ders olması gerektiğini düşünüyorum.”

Köleliğin kaldırılması hızlı bir süreç değildi: 1787’de Köle Ticaretinin Kaldırılması Komitesi’nin kurulması ile köle ticaretini yasaklayan 1807 Yasası’nın kabul edilmesi arasında yirmi yıl geçti. Köleliğin tamamen kaldırılması ise otuz yıl daha sürdü. Yapay genel zekayı yakın bir tehdit olarak görenler için bu çok yavaş bir süreç olurdu.

Yapay zekâ güvenliği aktivistlerinin düzeltmek istediği yanlışlar temelde farklı olsa da, köleliğin kaldırılması hareketi, içeriden yapılan manevralarla halka yapılan çağrıların bir arada var olabileceği bir model sunabilir. Aralarında eski köleler, parlamenterler, avukatlar ve dini liderlerin de bulunduğu az sayıda insan tarafından başlatılan kölelik karşıtları, yasa koyucuları hedef alan bir kampanyayı giderek artan halk desteğiyle birleştirmeyi başardılar.

Yapay zekâ güvenliği, çok derin yapısal güçlerle karşı karşıya kalan niş bir endişe gibi görünebilir, ancak Miller’a göre kölelik karşıtı kampanyacılar da benzer engellerle karşılaştı. “Ekonomiye derinden yerleşmişti. Onu ortadan kaldırmak son derece maliyetliydi. Yine de bunu yaptılar.”

 

 

https://www.transformernews.ai/p/will-ai-safety-become-a-mass-movement-protests-pauseai

Scroll to Top