
31 Temmuz 2024 / Joseph S. Nye, Jr.
Teknolojinin, özellikle özel sektördeki yoğun piyasa rekabetiyle yönlendirildiğinde, politika veya diplomasiye göre daha hızlı ilerlediği bilinen bir gerçektir. Ancak günümüz yapay zekasıyla ilişkili potansiyel güvenlik risklerini ele almaya gelince, politika yapıcıların hızlarını artırmaları gerekiyor.
ASPEN – İnsanlar alet üreten bir türdür, peki ürettiğimiz aletleri kontrol edebilir miyiz? Robert Oppenheimer ve diğer fizikçiler 1940’larda ilk nükleer fisyon silahını geliştirdiklerinde, icatlarının insanlığı yok edebileceğinden endişelenmişlerdi. Şimdiye kadar böyle bir şey olmadı, ancak nükleer silahların kontrolü o zamandan beri süregelen bir zorluk olmuştur.
Günümüzde birçok bilim insanı, yapay zekayı – makinelerin tipik olarak insan zekası gerektiren görevleri yerine getirmesini sağlayan algoritmalar ve yazılımlar – aynı derecede dönüştürücü bir araç olarak görüyor. Önceki genel amaçlı teknolojiler gibi, yapay zekanın da hem iyilik hem de kötülük için muazzam bir potansiyeli var. Kanser araştırmalarında, bir insan ekibinin aylar boyunca yapabileceğinden daha fazla çalışmayı birkaç dakika içinde sıralayabilir ve özetleyebilir. Benzer şekilde, insan araştırmacıların ortaya çıkarması yıllar alacak protein katlanma modellerini güvenilir bir şekilde tahmin edebilir.
Ancak yapay zeka, uyumsuz kişiler, teröristler ve zarar vermek isteyen diğer kötü niyetli aktörler için maliyetleri ve giriş engellerini de düşürüyor. Yakın zamanda yapılan bir RAND araştırmasının uyardığı gibi, “çiçek hastalığına benzer tehlikeli bir virüsü yeniden canlandırmanın marjinal maliyeti 100.000 dolar kadar düşük olabilirken, karmaşık bir aşı geliştirmenin maliyeti 1 milyar doları aşabilir.”
Dahası, bazı uzmanlar gelişmiş yapay zekanın insanlardan çok daha zeki olacağından ve bunun tersi değil, yapay zekanın bizi kontrol edeceğinden endişe duyuyor. Yapay genel zeka olarak bilinen bu süper zeki makinelerin geliştirilmesinin ne kadar süreceğine dair tahminler birkaç yıldan birkaç on yıla kadar değişiyor. Ancak her durumda, günümüzün dar kapsamlı yapay zekasından kaynaklanan artan riskler zaten daha fazla dikkat gerektiriyor.
40 yıldır, eski hükümet yetkilileri, akademisyenler, iş insanları ve gazetecilerden oluşan Aspen Strateji Grubu, her yaz ulusal güvenlikle ilgili önemli bir soruna odaklanmak üzere bir araya geliyor. Geçmiş oturumlarda nükleer silahlar, siber saldırılar ve Çin’in yükselişi gibi konular ele alındı. Bu yıl ise yapay zekanın ulusal güvenlik üzerindeki etkilerine odaklanarak, faydalarının yanı sıra risklerini de inceledik.
Faydaları arasında, muazzam miktarda istihbarat verisini ayıklama yeteneğinin artması, erken uyarı sistemlerinin güçlendirilmesi, karmaşık lojistik sistemlerinin iyileştirilmesi ve siber güvenliği artırmak için bilgisayar kodlarının incelenmesi yer alıyor. Ancak, otonom silahlardaki gelişmeler, programlama algoritmalarındaki kazara hatalar ve siber güvenliği zayıflatabilecek düşmanca yapay zekâlar gibi büyük riskler de mevcut.
Çin, yapay zeka alanındaki geniş kapsamlı rekabete büyük yatırımlar yapıyor ve ayrıca bazı yapısal avantajlara da sahip. Yapay zeka için üç temel kaynak; modelleri eğitmek için veri; algoritmaları geliştirmek için akıllı mühendisler; ve bunları çalıştırmak için işlem gücü. Çin’in verilere erişim konusunda yasal veya gizlilik kısıtlamaları azdır ve parlak genç mühendislerle iyi bir şekilde donatılmıştır. ABD’nin en çok gerisinde kaldığı alan ise yapay zeka için işlem gücü üreten gelişmiş mikroçiplerdir.
Amerikan ihracat kontrolleri, Çin’in bu yeni nesil çiplerin yanı sıra bunları üreten pahalı Hollanda litografi makinelerine erişimini de sınırlıyor. Aspen’deki uzmanlar arasında genel kanı, Çin’in ABD’nin bir veya iki yıl gerisinde olduğu yönündeydi; ancak durum hâlâ istikrarsız. Başkanlar Joe Biden ve Xi Jinping geçen sonbaharda bir araya geldiklerinde yapay zeka konusunda ikili görüşmeler yapma konusunda anlaşmış olsalar da, Aspen’de yapay zeka silah kontrolü olasılıkları konusunda pek iyimserlik yoktu.
Otonom silahlar özellikle ciddi bir tehdit oluşturuyor. Birleşmiş Milletler’de on yılı aşkın süredir devam eden diplomatik görüşmelere rağmen, ülkeler otonom ölümcül silahların yasaklanması konusunda anlaşmaya varamadılar. Uluslararası insancıl hukuk, orduların silahlı savaşçılar ile siviller arasında ayrım yapmasını gerektirir ve Pentagon uzun zamandır bir silah ateşlenmeden önce karar verme sürecinde bir insanın bulunmasını şart koşmaktadır . Ancak bazı durumlarda, örneğin gelen füzelere karşı savunmada, insan müdahalesi için zaman yoktur.
Bağlam önemli olduğundan, insanlar silahların ne yapabileceğini ve ne yapamayacağını kesin olarak tanımlamalıdır. Başka bir deyişle, “döngü içinde” değil, “döngüden çıkan” bir insan olmalıdır. Bu sadece spekülatif bir soru değil.
Yapay zekanın en korkutucu tehlikelerinden biri, biyolojik savaş veya terörizmde kullanılmasıdır. 1972’de ülkeler biyolojik silahları yasaklama konusunda anlaştıklarında, genel kanı, bu tür cihazların kendi taraflarında “geri tepme” riski nedeniyle yararlı olmadığı yönündeydi. Ancak sentetik biyoloji ile, bir grubu yok eden ancak diğerini etkilemeyen bir silah geliştirmek mümkün olabilir. Ya da bir laboratuvara erişimi olan bir terörist, 1995’te Japonya’daki Aum Shinrikyo kıyamet tarikatının yaptığı gibi, mümkün olduğunca çok insanı öldürmek isteyebilir. (Onlar bulaşıcı olmayan sarin gazı kullanmış olsalar da, modern muadilleri bulaşıcı bir virüs geliştirmek için yapay zekayı kullanabilir.)
Nükleer teknoloji söz konusu olduğunda, ülkeler 1968’de şu anda 191 üyesi olan bir nükleer silahların yayılmasını önleme anlaşması üzerinde anlaştılar. Uluslararası Atom Enerjisi Ajansı, yerel enerji programlarının yalnızca barışçıl amaçlarla kullanıldığını doğrulamak için düzenli olarak denetlemeler yapmaktadır. Ve yoğun Soğuk Savaş rekabetine rağmen, nükleer teknolojide önde gelen ülkeler 1978’de en hassas tesislerin ve teknik bilginin ihracatında kısıtlama uygulama konusunda anlaştılar. Bu tür bir emsal, yapay zeka için bazı yollar önermektedir, ancak iki teknoloji arasında bariz farklılıklar vardır.
Teknolojinin, özellikle özel sektördeki yoğun piyasa rekabetiyle yönlendirildiğinde, politika veya diplomasiye göre daha hızlı ilerlediği bilinen bir gerçektir. Bu yılki Aspen Strateji Grubu toplantısının en önemli sonuçlarından biri, hükümetlerin hızlarını artırmaları gerektiğidir.
Joseph S. Nye, Jr., Harvard Kennedy Okulu Dekanı, ABD Savunma Bakan Yardımcısı ve ” Do Morals Matter? Presidents and Foreign Policy from FDR to Trump” (Oxford University Press, 2020) ve ” A Life in the American Century” (Polity Press, 2024) adlı anı kitaplarının yazarıdır.