Çin ve Amerika Birleşik Devletleri Yapay Zeka Riskini Ciddiye Almalı

15 Aralık 2025 / Jake Sullivan

Çin ve Amerika Birleşik Devletleri yapay zekâ alanında liderlik için kıyasıya rekabet etmeye devam edecek. Ancak dünyanın iki – ve tek – yapay zekâ süper gücü olarak, her iki ülke de teknolojinin piyasalara, altyapıya, sosyal istikrara ve insanlığın kendisine yönelik oluşturduğu giderek artan tehlikeler listesini ele almak için acilen doğrudan birbirleriyle iletişime geçmelidir.

CAMBRIDGE – Kasım 2024’te ABD Başkanı Joe Biden ve Çin Devlet Başkanı Xi Jinping, yapay zekanın ulusal güvenlik açısından yarattığı riskler hakkında ilk kapsamlı ortak açıklamalarını yaptılar . Özellikle, hem Amerika Birleşik Devletleri’nin hem de Çin’in “nükleer silahların kullanımı kararında insan kontrolünün korunması gerektiğine” inandığını belirttiler.

Bu, diplomatik açıdan kolay bir mesele gibi görünebilir, çünkü nükleer silahların kontrolünü yapay zekaya devretmemiz gerektiğini savunacak makul birini bulmak zor olurdu. Ancak Çin hükümeti söz konusu olduğunda, özellikle önemli güvenlik konularında, kolay elde edilebilecek bir şey yoktur. Çinliler, ABD’nin risk azaltma önerilerine doğal olarak şüpheyle yaklaşıyorlar ve Rusya da çok taraflı kuruluşlarda benzer söylemlere karşı çıkmıştı. ABD ile yapay zeka ve nükleer güvenlik konusunda yapılacak ikili görüşmeler Rusya ve Çin arasında bir mesafe yaratacağından, bu cephede ilerleme kesin bir sonuç değildi.

Sonuç olarak, bu basit ortak açıklamanın gerçekleşmesi bir yıldan fazla süren müzakereler gerektirdi. Ancak basit gibi görünse de, sonuç önemliydi çünkü iki yapay zeka süper gücünün, yapay zeka liderliği için kıyasıya rekabet ederken bile yapıcı risk yönetimine girişebileceğini gösterdi.

Ayrıca, iki ülkenin diplomatları ve uzmanları 2024 yılının başlarında Cenevre’de yapay zeka risklerine adanmış uzun bir oturum için bir araya gelmişti. Bu türden ilk toplantıydı ve önemli bir sonuç vermese de, gerçekleşmiş olması bile önemli bir adımdı ve her iki taraf da daha fazla çalışma gerektiren kritik risk alanlarını belirlemeyi başardı.

Yapay zekâ geliştirme ve hem sivil hem de askeri alanda uygulama ivmesi artarken, ABD ve Çin, yapay zekâ yarışında liderliği ele geçirmeye çalışırken bile, yapay zekâ riskleri konusunda sürdürülebilir, üst düzey diplomasi yürüterek bu temeli güçlendirmelidir. Bunu yapmaları gerekiyor çünkü yapay zekâ riskleri gerçek ve giderek artıyor.

Örneğin, yapay zekâ yetenekleri geliştikçe ve yaygınlaştıkça, terör örgütleri gibi devlet dışı aktörler bunları hem ABD’yi hem de Çin’i ve dünyanın geri kalanını tehdit etmek için kullanabilirler. Bu tür tehditler, kritik altyapıyı felç eden siber saldırılar, tespit veya tedaviden kaçan yeni biyolojik silahlar, hükümetleri ve toplumları istikrarsızlaştıran dezenformasyon kampanyaları ve çok az veya hiç haber vermeden herhangi bir yere saldırabilen yapay zekâ destekli ölümcül insansız hava araçları da dahil olmak üzere birçok biçimde olabilir.

Riskler bununla da sınırlı kalmıyor. ABD ve Çin orduları yapay zekâ kullanımını artırdıkça – bu süreçte karar alma döngüleri kısalıyor ve caydırıcılık çerçeveleri değişiyor – yapay zekâ destekli sistemlerin istemeden bir çatışmayı veya felaket niteliğinde bir tırmanmayı tetikleme riski artacaktır. Yapay zekâ küresel bankacılık sisteminde giderek daha merkezi bir rol oynadıkça, yeterli güvenlik duvarı olmadan yapay zekâ destekli işlemler piyasa çöküşüne neden olabilir. Daha da ilerisine bakıldığında, güçlü, yanlış yönlendirilmiş bir yapay zekâ sisteminin (yaratıcılarının amaçladığından farklı amaçlar peşinde koşan) insanlığa ciddi zararlar verebileceği düşünülebilir. Dünyanın tek yapay zekâ süper güçleri olan ABD ve Çin, bu ve diğer tehlikeleri ele almak için doğrudan birbirleriyle iletişime geçmelidir.

Yönetilen Rekabet

Diyalog, Çin ve ABD’nin kıyasıya rekabeti bırakacağı anlamına gelmiyor. Bu sonbaharda Çin, mikroçiplerin ve yapay zeka sistemlerinin diğer bileşenlerinin üretiminde kritik öneme sahip nadir toprak elementlerine yönelik yeni ve aşırı ihracat kontrolleri getirerek rekabetin ne kadar keskinleştiğini gösterdi.

Biden yönetimi sırasında ulusal güvenlik danışmanı olarak, ABD’nin yapay zekâ alanındaki liderliğini sürdürmesi ve teknolojinin bize karşı değil, bizim yararımıza çalışması için çok çalıştım. Askeri, istihbarat ve ticari uygulamalarda liderlik yarışının ve Amerikan ve Çin yapay zekâ modellerinin ve uygulamalarının dünya çapındaki ülkeler tarafından benimsenmesinin giderek daha da kızışacağını gördüm.

Ancak tam da bu yoğun rekabet nedeniyle, gerginliğin arttığı bu dönemde bile diplomasi hayati önem taşıyor. ABD ve Çin’in, riskler konusunda birbirleriyle görüşmeden veya iklim krizinden kamu sağlığına kadar uluslararası zorlukların üstesinden gelmek için yapay zekanın sunduğu muazzam fırsatlar hakkında konuşmadan hızla ilerlemeleri son derece sorumsuzluk olurdu.

Elbette, her iki ülkedeki önde gelen düşünürler de “İkinci Yol” diplomatik çabalarına katıldılar; bu, genellikle üniversiteleri, iş dünyası liderlerini ve sivil toplum gruplarını içeren, hükümet dışı görüşmelerdir. Bu tür tartışmalar değerlidir ve devam etmelidir. Ancak nihayetinde, ilk başta oldukça mütevazı olsa bile, doğrudan hükümetler arası etkileşimin yerini hiçbir şey tutamaz. Teknolojik ilerlemenin nefes kesici hızı ve anlık gelişmelere denk diplomatik atılımlara ulaşmanın öngörülebilir zorlukları göz önüne alındığında, etkileşim bekleyemez. Yapay zeka risklerini yönetmek keşfedilmemiş bir alandır, bu nedenle ilerleme ne hızlı ne de kolay olacaktır. ABD ve Çin’in harekete geçmesi gerekiyor.

Birçok yorumcu, yıllar içinde gelişen nükleer silah kontrolüne paralellikler kurdu ve bu benzetmenin bir geçerliliği var. Süper güçler, güçlü teknolojilerle ilişkili riskleri yönetme sorumluluğunu taşır ve biz bu sorumluluğu geçmişte, Soğuk Savaş’ın en yoğun döneminde bile, silah kontrol anlaşmaları yoluyla başarıyla yerine getirdik. Ancak yapay zeka, silah kontrolünden daha yenilikçi yaklaşımlar gerektiren farklı zorluklar da sunuyor.

Bunun birkaç nedeni var. Birincisi, doğrulama daha zahmetli. Füze ve savaş başlıklarını, tespit edilebilir imzalarıyla birlikte saymak bir şeydir; algoritmaları saymak – hele ki belirli bir algoritmanın tüm yeteneklerini ve uygulamalarını ayırt etmek – bambaşka bir şeydir.

İkinci olarak, çift kullanımlılık sorunu yapay zekâ söz konusu olduğunda farklı bir şekilde ortaya çıkıyor. Evet, atomu parçalamanın hem sivil hem de askeri kullanımları var, ancak barışçıl nükleer enerji ile nükleer silahlar arasında oldukça net bir çizgi var ve Uluslararası Atom Enerjisi Ajansı bu konuda çok fazla deneyime sahip. Buna karşılık, bilimsel araştırmaları ilerletmeye ve ekonomik büyümeyi sağlamaya yardımcı olabilecek aynı yapay zekâ modeli, korkunç ölümcül etkiler de yaratabilir. Bu durum, ABD ve Çin arasındaki rekabet dinamiklerini yönetmeyi çok daha zorlaştırıyor ve fırsat ile risk arasındaki çizgiyi ayırt etmeyi çok daha güçleştiriyor.

Üçüncüsü, silah kontrolü tartışmaları esas olarak devletlerin diğer devletleri tehdit etmesine odaklanırken, yapay zeka riski devletler arası tehditleri, devlet dışı tehditleri ve yapay zeka uyumsuzluğuyla ilişkili riskleri de içermektedir. Bu durum, diplomasi için farklı zorluklar ve fırsatlar sunmaktadır.

Dördüncüsü, en azından ABD’de, yapay zekâ geliştirme süreci hükümet tarafından değil, özel sektör tarafından –ve tek bir şirket tarafından değil, birbirleriyle rekabet eden birçok şirket tarafından– yönlendiriliyor. Bu da, teknolojinin yarattığı riskleri azaltmayı amaçlayan tartışmalara daha geniş bir aktör yelpazesinin dahil olması gerektiği anlamına geliyor.

Son olarak, yapay zekâ yeteneklerinin ne kadar hızlı ve ne kadar ileri gideceği konusunda çok çeşitli görüşler mevcut. Kimileri bunu tam olarak benimsenmesinin on yıllar alacağı “normal” bir teknoloji olarak görürken, diğerleri süper zekâ patlamasının sadece birkaç yıl uzakta olduğunu savunuyor . Nükleer silahlarda, biraz daha büyük veya küçük bir patlama ya da daha hızlı veya daha manevra kabiliyetine sahip bir taşıma aracı elde edebilirsiniz, ancak temelde neyle uğraştığınızı biliyorsunuz. Yapay zekâ yeteneklerinin evrimi ve etkisi ise çok daha belirsiz.

Ulusal güvenlik danışmanı olarak görev yaptığım dönemde, ABD hükümetinin belirsizlik spektrumundaki her senaryoya hazır olmasını sağlamak için çalıştım. Bunu yapmak ek bir esneklik, incelik ve istikrar seviyesi gerektirir. Nükleer silah kontrol çerçevesi bir gecede ortaya çıkmadı. İlgili ihracat kontrollerini, test şemalarını, doğrulama protokollerini ve güvenlik önlemlerini geliştirmek yıllar aldı ve bunları sürdürmek on yıllarca süren diplomasi gerektirdi. Yapay zekâ ile, benzer bir amaca yönelik ancak özü ve karmaşıklığı farklı bir şeyin başlangıç ​​aşamasındayız. Bu da risk azaltma çabalarına derhal başlamayı daha da önemli kılıyor.

 

ABD Başkanı Joe Biden’ın 2021-2025 yılları arasında Ulusal Güvenlik Danışmanı olarak görev yapan Jake Sullivan, Harvard Kennedy Okulu’nda Devlet Yönetimi ve Dünya Düzeni Uygulamaları Profesörüdür.

 

https://www.project-syndicate.org/magazine/china-us-ai-risks-call-for-urgent-diplomacy-by-jake-sullivan-2025-12

 

 

 

Scroll to Top