Çin’in yeni yapay zeka güvenlik kurumu, önde gelen uzmanları bir araya getiriyor; ancak hırsı etkiye dönüştürmede engellerle karşılaşıyor.
Karson Elmgren , Scott Singer ve Oliver Guest / 14 Ekim 2025
Şubat 2025’te Paris Yapay Zeka Eylem Zirvesi kapsamında başlatılan CnAISDA, Çin’i, yapay zeka güvenliğine adanmış enstitülere (AISI’ler) sahip az sayıdaki yargı bölgesi arasında konumlandırıyor; ancak giderek daha fazla başka adlarla anılıyorlar. AISI’ler, yapay zeka risklerine odaklanan ve bazen açıkça felaket risklerini de içeren devlet destekli kurumlardır. Çin’deki öncü yapay zeka sistemlerinin potansiyel felaket risklerini ele alma çabalarının son hali göz önüne alındığında, CnAISDA potansiyel olarak gelecekteki önemli gelişmelerin çekirdeğini oluşturmaktadır.
Peki CnAISDA yapay zeka güvenliğine yönelik ciddi bir ulusal taahhüt sinyali mi veriyor, yoksa sadece lafta mı kalıyor?
Uluslararası Yakınsama mı?
CnAISDA’nın gerçek bir ivme mi yoksa sadece sembolizm mi temsil ettiğini anlamak için öncelikle Çin’in yerel yapay zeka güvenlik ekosisteminin, yerel geliştiriciler ve araştırmacıların yurtdışında öncülük edilen bazı yönetişim önlemlerini benimsemeye başlamasıyla birlikte, geçen yıl nasıl evrimleştiğine bakmak faydalı olacaktır.
Birçok Çinli geliştirici, küresel endüstri vaatlerini büyük ölçüde yansıtan gönüllü güvenlik taahhütleri imzaladı. Aralık 2024’te, CAICT’nin bir parçası olan Çin Yapay Zeka Endüstrisi İttifakı, DeepSeek, Alibaba ve Tencent de dahil olmak üzere 17 büyük Çinli yapay zeka şirketinin imzaladığı güvenlik taahhütlerini yayınladı. Bu taahhütler, özellikle Seul Yapay Zeka Zirvesi’nde dünya çapındaki yapay zeka geliştiricilerinin verdiği Sınır Yapay Zeka Güvenlik Taahhütleri ile büyük ölçüde örtüşmektedir . Bu yılki WAIC’de, CAICT taahhütleri CnAISDA çatısı altında yinelendi ve uluslararası iş birliğine ve sınır risklerinin önlenmesine biraz daha fazla vurgu yapmak için biraz genişletildi .
Ancak, DeepSeek de dahil olmak üzere bazı önemli paydaşlar, ikinci taahhüt turunda dikkat çekici bir şekilde yer almadı. Çin’deki güvenlik endişelerinin temel göstergelerinden biri, Çinli geliştiricilerin taahhütlerine uyup uymadığı olacak. Seul taahhütlerine küresel uyum ise düzensiz ve taahhütleri imzalayan Çinli şirketlerin hiçbiri bunları yerine getirmedi.
Devlet destekli önemli bir laboratuvar, küresel en iyi uygulamaları temel alan sınır ötesi yapay zeka risk değerlendirmelerinin sonuçlarıyla birlikte kendi risk azaltma stratejisini yayınladı. Bu yılki WAIC ile eş zamanlı olarak, Şanghay Yapay Zeka Laboratuvarı, Concordia Yapay Zeka ile iş birliği içinde, sınır ötesi yapay zeka sistemlerinden kaynaklanan riskleri izlemek ve yönetmek için ayrıntılı bir süreç ortaya koyan bir Sınır Ötesi Yapay Zeka Risk Yönetimi Çerçevesi yayınladı. Aynı kuruluşlar, Şanghay Yapay Zeka Laboratuvarı çerçevesine dayanarak çeşitli Çin ve Çin dışı yapay zeka modellerinin oluşturduğu sınır ötesi risklerin bir analizini yayınladı .
Bu, Çin yapay zeka risk değerlendirmeleri alanında önemli bir ilerlemeyi temsil etse de, ABD ve Birleşik Krallık’taki teknik uyum, koruma önlemleri ve değerlendirme çalışmalarından çok daha yenidir. Çin, daha önce otonom Ar-Ge ve KBRN yayılmasında stratejik aldatma gibi risklerle sınırlı bir etkileşim içindeydi. Anthropic kurucu ortağı Jack Clark’ın da belirttiği gibi , Shanghai AI Lab’ın bulguları, hem incelenen riskler hem de kullanılan yöntemler açısından ABD ve Birleşik Krallık’ta gerçekleştirilen risk değerlendirmeleriyle daha yakın bir benzerlik olduğunu ortaya koydu. Shanghai AI Lab, hatta Birleşik Krallık AISI’nin Inspect değerlendirme yazılımını kullandı.
Sınırlı Kaynaklara Sahip Bir All-Star Takımı
CnAISDA’nın liderleri arasında Çin Yapay Zeka politikasının önde gelen isimleri yer alıyor. Eski dışişleri bakan yardımcısı ve Çin’in en önemli diplomatlarından biri olan Fu Ying, kuruluşun baş sözcüsü olarak görev yaptı. Çin’in tek Turing Ödülü sahibi Andrew Yao, bilimsel güvenilirlik sağlıyor. Çin’in güçlü Devlet Konseyi’nin kilit danışmanlarından Xue Lan, politika uzmanlığı sağlıyor ve teknik ve politika toplulukları arasında köprü kuruyor. CnAISDA web sitesinde yer alan diğer liderler arasında Şanghay Yapay Zeka Laboratuvarı’ndan (SHLAB) Zhou Bowen, Çin Bilgi ve İletişim Teknolojileri Akademisi’nden (CAICT) Wei Kai, Tsinghua Disiplinlerarası Bilgi Bilimleri Enstitüsü’nden Xu Wei ve Çin Bilimler Akademisi’nden Zeng Yi yer alıyor.
Yeni hükümet içi kurumlar olarak kurulan ABD ve İngiltere’deki benzerlerinin aksine, CnAISDA mevcut kurumların bir koalisyonudur. CnAISDA’nın en temel özelliği, Kanada’nın AISI ve Fransa’nın INESIA’sının benimsediği yaklaşımı izleyen merkezi olmayan yapısıdır. Çin, yeni bir bürokratik yapı oluşturmak yerine, mevcut yapay zeka uzmanlık merkezlerini tek bir çatı altında toplamıştır. CnAISDA’nın Mandarin dilindeki adı bu yönü vurgular; kelimenin tam anlamıyla çevirisi “birlik” değil, “ağ”dır.
Tsinghua Üniversitesi organizasyon merkezi olarak hizmet vermektedir: CnAISDA’nın resmi adresi ve telefon numarası üniversitededir ve önde gelen personelin birçoğunun orada bağlantıları vardır. Tartışmasız Çin’in en prestijli üniversitesi olan Tsinghua, güvenlik ve yönetişim alanında önemli faaliyet merkezlerine ev sahipliği yapmakta ve güvenlikle ilgili araştırmaların önde gelen üreticilerinden biridir. Grup ayrıca, SHLAB, Pekin Yapay Zeka Akademisi (BAAI) ve CAICT gibi yapay zeka alanındaki diğer önde gelen teknik kuruluşları da bünyesinde barındırmaktadır. SHLAB ve CAICT, diğer işlevlerinin yanı sıra yapay zeka sistemlerini riskle ilgili özellikleri açısından değerlendirir. BAAI, başkentte teknik yapay zeka gelişimiyle ilgili birçok faaliyet için önemli bir düzenleyici ve merkezdir.
Koalisyon tasarımı siyasi pragmatizmi yansıtıyor . Çin, rakip kurumlar arasından kazananları seçmeyi gerektirecek tek bir merkezi kurum oluşturmak yerine, bir koalisyon modelini tercih etti. Bu yaklaşım, hükümetin, uzmanlık iddiaları örtüşen rakip kurumlar arasında seçim yapmak zorunda kalmadan, Çin yapay zeka güvenliği görüşmelerinde birden fazla kilit sesi öne çıkarmasına olanak tanıyor.
Sınırlı kaynaklar. CnAISDA’nın hedefleri ne olursa olsun, grup kuruluş aşamasında önemli engellerle karşılaşıyor. Kuruluşun şu anda özverili personeli, kendine ait bir bütçesi ve hatta Çince bir web sitesi bulunmuyor ve bu da operasyonel kapasitesi hakkında soru işaretleri yaratıyor. Çin hükümetiyle ilişkisinin niteliği belirsizliğini koruyor, ancak güçlü Ulusal Kalkınma ve Reform Komisyonu’ndan bir yetkili, CnAISDA’nın hükümet desteğini kamuoyuna açıkladı .
Çin’in Yapay Zeka Diplomasisinde Liderlik Çabaları
ABD’nin yapay zeka politikasındaki önde gelen isimlerin küresel yapay zeka yönetişim çabalarına yönelik şüpheci yaklaşımlarını dile getirdiği bir dönemde , Çinli liderler kapsayıcı yapay zeka gelişimi ve çok taraflı katılıma yönelik desteği vurgulamaya devam etti.
CnAISDA, en azından şimdilik, öncelikle uluslararası etkileşime odaklanıyor. Çin’in 2024 Üçüncü Plenum karar belgesi, bir “Yapay Zeka Güvenlik Denetim Sistemi” kurulması çağrısı içerdiğinde, birçok gözlemci bunu, sınır yapay zeka modellerinin test edilmesi ve değerlendirilmesi gibi yerel işlevleri yerine getirecek bir Çin Yapay Zeka Güvenlik Sistemi’nin (AISI) kurulmasının bir işareti olarak gördü. Ancak şimdiye kadar oluşturulan sistem, bir denetim sisteminden ziyade bir etkileşim platformu niteliğinde. CnAISDA, öncelikle küresel yapay zeka yönetişimi tartışmalarında Çin’in sesi olmak üzere tasarlandı. Henüz teknik araştırma, değerlendirme veya politika işlevleri gibi önemli bağımsız çalışmalar yürütmek üzere kurulmadı. CnAISDA zamanla daha yerel bir rol üstlendiği ölçüde, bu, Çin liderliğinin sınır yapay zekasından kaynaklanan risklere odaklandığının daha da güçlü bir kanıtı olacaktır.
Bu uluslararası yönelim, CnAISDA’nın Paris’teki lansman etkinliğinde de açıkça görüldü. Kuruluşun kurucu belgesi, BM katılımını dünya çapındaki yapay zeka güvenliği enstitüleri arasındaki koordinasyonla birleştiren “kapsayıcı bir küresel yapay zeka güvenliği yönetişim çerçevesi” oluşturulması çağrısında bulunuyor. Terör örgütleri tarafından yapay zekanın kötüye kullanılmasını önlemek için uluslararası iş birliğini savunuyor ve “insanlar için felaket veya varoluşsal riskler oluşturabilecek yapay zeka sistemleri için erken uyarı eşikleri” belirliyor.
CnAISDA’nın uluslararası katılıma odaklanması, Çin’in küresel yapay zeka yönetişimi konusundaki diğer çabalarıyla örtüşmektedir. Trump yönetiminin Yapay Zeka Eylem Planı’na rakip bir vizyon sunan Çin’in ” Küresel Yapay Zeka Yönetişim Eylem Planı “, uluslararası iş birliğinin ve geniş çapta dağıtılmış kapasite geliştirmenin önemini vurgulamaktadır. CnAISDA, “Yapay Zeka ve İnsanlığın Uyumlu Geleceği” ve “Yapay Zeka Geliştirme ve Güvenliğinin Küresel Yönetişimi” gibi konularda uluslararası uzmanların yer aldığı birkaç geniş katılımlı panel düzenleyerek bu hedefleri kısmen doğrulamıştır. Her ne kadar sadece sözde kalsa da, bu etkinlikler Çinli ve yabancı uzmanların, teknik doğrulama ve yapay zeka ajanlarından kaynaklanan sistemik riskler gibi gelecekteki uluslararası yönetişimin önemli unsurları olabilecek en son konulardaki önemli tartışmalarına sahne olmuştur. İzleyicilerin birçoğu muhtemelen bu fikirlerle ilk kez karşılaşmıştır.
Ancak Çin’in uluslararası yaklaşımı giderek yapay zekânın küresel yaygınlaşmasına odaklanıyor. Çin Başbakanı Li Qiang, Çin Planı’nı tanıttığı konuşmasında, Çin hükümetinin geçici olarak Şanghay merkezli bir ” Dünya Yapay Zeka İşbirliği Örgütü ” kurulmasını desteklediğini açıkladı . Ayrıca Li, New York’taki Küresel Kalkınma Girişimi üst düzey toplantısında yeni bir Yapay Zeka+ Uluslararası İş Birliği Girişimi’ni duyurdu. Bu girişim, Çin’in yapay zekâyı günümüzde “reel ekonomiye” yayma çabalarını genişletmeyi amaçlıyor.
Bu çabalar, Çin’in hem iç hem de uluslararası yönetişiminde, sınır yapay zeka güvenliğinin yapay zeka gelişimi ve ekonomik büyümeye göre ikincil bir öncelik olduğunu vurguluyor.
ABD -Çin arasındaki giderek artan gerginlikler, uluslararası iş birliğinin önünde yapısal engeller yaratıyor. ABD-Çin ilişkilerinde özellikle bir engel, Mart ayında BAAI’nin ABD Kuruluş Listesi’ne alınmasıyla ortaya çıktı . Bu liste, genellikle bir kuruluşun yabancı askeri faaliyetlerle olan bağlarıyla gerekçelendiriliyor ve ABD yetki alanındaki kuruluşların listelenen kuruluşla ticaret yapmasını veya teknoloji transfer etmesini yasaklıyor. Kuruluş Listesi ticari olmayan etkileşimi yasaklamasa da, yapay zeka gibi teknik bir konudaki kesin sınırlar henüz net değil ve bir listelemenin caydırıcı bir etki yaratması kaçınılmaz.
Önümüzdeki Yol
CnAISDA’nın ortaya çıkışı, yapay zekâ risklerine ilişkin ortak teknik endişelerin jeopolitik sınırları aşabileceğini göstermektedir. Dahası, CnAISDA’nın kurucu kurumlarında, özellikle Şanghay Yapay Zeka Laboratuvarı’nda yürütülen test ve değerlendirme çalışmaları, Çin’in küresel etkileri olan riskleri azaltmak için önemli önlemler üzerinde çalışıyor olabileceğinin ümit verici bir işaretidir. Bu göreceli ilerleme, yüksek bir mutlak endişe veya eylem düzeyinin kanıtı olarak alınmamalıdır: Çin’deki yapay zekâ güvenlik ekosistemi, hem teknik hem de politika alanlarında ABD’deki emsaline kıyasla çok daha az olgunlaşmıştır . Bununla birlikte, bu gelişmeler, kapsayıcı küresel çerçeveler henüz belirsizliğini korurken bile, yerel olarak geliştirilen kurumlar aracılığıyla en iyi uygulamaların organik olarak yaygınlaştırılması yoluyla uluslararası düzeyde bir yönetişim tutarlılığının nasıl sağlanabileceğini göstermektedir.
CnAISDA, Çin’in sınır yapay zeka güvenliği topluluğunun etkisinin kritik bir göstergesidir. Uluslararası toplum için CnAISDA bir fırsattır, ancak belirsizdir. Çin ile yapay zeka güvenliği konusunda etkileşim kurmak için yetkili bir resmi kanal sunmaktadır. Ancak, Çin ekosisteminin genelinde olduğu gibi, CnAISDA da potansiyel küresel ölçekli riskleri ele almak için şimdiye kadar çok az somut adım atmıştır. CnAISDA’nın kalıcı etkisinin en gerçek testi, Çin içinde yalnızca sınır yapay zeka riskleri hakkında konuşmakla kalmayıp, bunları azaltmak için harekete geçme yönünde sistem çapında bir değişimi destekleyip destekleyemeyeceği olacaktır.
Bu makale büyük ölçüde aynı yazarların yayınladığı, buradan erişebileceğiniz bir makaleye dayanmaktadır .
Karson Elmgren, araştırmacı ve yazardır. RAND Teknoloji ve Güvenlik Politikaları Merkezi, Georgetown Üniversitesi Güvenlik ve Gelişen Teknolojiler Merkezi ve OpenAI gibi kuruluşlarla çalışmıştır.
Scott Singer, Carnegie Uluslararası Barış Vakfı’nın Teknoloji ve Uluslararası İlişkiler programında araştırmacıdır.
Oliver Guest , Yapay Zeka Politikaları ve Stratejisi Enstitüsü’nde araştırmacıdır. Araştırmaları, gelişmiş yapay zekanın uluslararası yönetimine odaklanmaktadır.
https://ai-frontiers.org/articles/is-china-serious-about-ai-safety?utm_source=newsletter
