
The Future Society / 3 Temmuz 2025
Yapay Zeka İçin Küresel Kırmızı Çizgiler serimizin ikinci bölümünde, yapay zeka etrafında kırmızı çizgiler çizmeye başlayan çok taraflı kuruluşlar, bölgesel ve ulusal hükümetler, şirketler ve sivil toplum aktörlerinden gelen ortaya çıkan örnekler inceleniyor.
Kırmızı çizgiler yeni bir fikir değil. Her ne kadar her zaman böyle adlandırılmasa da, yapay zeka yönetişiminde zaten kullanılıyorlar. Ulusal ve bölgesel düzenlemelerde, çok taraflı girişimlerde, sektör taahhütlerinde ve bilim ve sivil toplum liderlerinin liderliğindeki küresel kampanyalarda bunların yansımalarını görüyoruz.
Yapay zekayı şu anda hangi kırmızı çizgiler yönetiyor?
Yapay zeka yönetişiminde kırmızı çizgiler, çok çeşitli paydaşlar tarafından araştırılıp geliştirilmektedir. “Kırmızı çizgiler” genellikle uluslararası yumuşak hukuk bağlamında tartışılsa da, yerel, ulusal ve ulusüstü yargı bölgelerinde yasal olarak bağlayıcı yasaklar olarak da ortaya çıkmaktadır.
Örneğin, AB Yapay Zeka Yasası, kabul edilemez görülen belirli yapay zeka kullanımlarını açıkça yasaklamaktadır. Bu yasaklı sistemler arasında, kullanıcıları bilinçaltı tekniklerle manipüle eden, savunmasız grupları istismar eden, kamusal alanlarda yüz tanıma kullanan, duyguları çıkarsayan veya bireyleri biyometrik verilere dayanarak kategorize eden sistemler yer almaktadır. Yapay zeka için bugüne kadarki en kapsamlı yasal çerçeve olan AB Yapay Zeka Yasası, yapay zekanın geliştirilmemesi veya kullanılmaması gereken belirli durumları tanımlayarak net kırmızı çizgiler koymaktadır. Eşlik eden Uygulama Kuralları, imzacıların riskleri “Sistemik Risk Kabul Kriterleri”ne göre değerlendirmelerini ve riskler kabul edilemez bulunursa geliştirme veya pazara girmekten kaçınmalarını gerektiren “kabul edilemez sistemik risk” konusundaki Taahhüt II.I ile bunu pekiştirmektedir.
Amerika Birleşik Devletleri’nde , bazı eyaletler yapay zekanın belirli zararlı kullanımlarını yasaklayan yasalar çıkardı. Örneğin, Teksas yakın zamanda davranışsal manipülasyon, ayrımcılık, çocuk pornografisi veya yasa dışı derin sahteciliklerin oluşturulması veya dağıtılması ve anayasal hakların ihlalini yasaklayan Teksas Sorumlu Yapay Zeka Yönetimi Yasası’nı ( TRAIGA ) imzaladı.
Çin’de , yapay zeka uygulamalarını yüksek riskli ve düşük riskli kategorilere ayıran ve yüksek riskli sistemleri daha sıkı düzenlemelere tabi tutan ulusal düzeyde bir yapay zeka yasası taslağı hazırlama yönünde büyüyen bir hareket de bulunmaktadır . Ulusal Siber Güvenlik Teknik Standartları Komitesi (TC 260) tarafından Eylül 2024’te yayınlanan Yapay Zeka Güvenlik Yönetişim Çerçevesi 1.0, otonom çoğaltma ve iyileştirme, güç arayışı, silah geliştirmeye yardımcı olma ve otonom siber saldırılara atıfta bulunarak belirli yüksek risk kategorilerini işaretlemektedir.
Brezilya’nın kapsamlı yapay zeka tasarısında (Projeto de Lei No. 2338/2023) yapay zeka için kırmızı çizgiler de ilerletiliyor . “Aşırı Risk” hakkındaki 13. Madde, belirli grupların zaaflarını istismar eden veya bilinçaltı teknikleri kullanan yapay zeka sistemleri ile bireylerin sağlığına, güvenliğine veya temel haklarına zarar veren davranışları kışkırtan veya teşvik eden sistemler üzerinde açık yasaklar içeriyor. Madde ayrıca, kamu otoriteleri tarafından sosyal puanlama için yapay zekanın kullanılmasını, otonom silah sistemlerinde yapay zekanın konuşlandırılmasını ve kitlesel gözetleme için biyometrinin geniş çaplı kullanımını açıkça yasaklıyor. Temmuz 2025 başı itibarıyla yasa tasarısı, Senato tarafından onaylanmış olarak Kongre’de özel bir komisyonda.
Uluslararası düzeyde, kırmızı çizgiler çoğunlukla çok taraflı forumlar aracılığıyla ortaya konmaktadır. Yapay zekâ konusunda dünyanın ilk bağlayıcı uluslararası anlaşması olan Avrupa Konseyi Yapay Zeka Çerçeve Sözleşmesi , insan haklarına dayanan temel yasaklar koymaktadır.
Seul Yapay Zeka Güvenlik Zirvesi, 27 ülke ve AB tarafından imzalanan ve etkili bir azaltma yapılmadan aşılmaması gereken sınır yapay zeka sistemleri için risk eşiklerini belirlemeyi taahhüt eden bir bakanlar bildirisi yayınladı . Ayrıca, 20 teknoloji kuruluşunun gönüllü Sınır Yapay Zeka Güvenlik Taahhütlerini imzalamasına yol açtı . Özellikle, Sonuç 1.II kapsamında, bu kuruluşlar “bir model veya sistemin oluşturduğu ciddi risklerin, yeterli düzeyde azaltılmadığı takdirde, tahammül edilemez kabul edileceği eşikleri belirlemeyi” kabul etti.
Benzer şekilde, OECD tarafından desteklenen G7 Hiroşima Yapay Zeka Süreci , belirli yasaklara olan ihtiyacı şu şekilde vurgulamaktadır: “Kuruluşlar, demokratik değerleri baltalayacak, bireylere veya topluluklara özellikle zarar verecek, terörizmi kolaylaştıracak, suç teşkil edecek şekilde kötüye kullanmaya olanak sağlayacak veya güvenlik, emniyet ve insan hakları açısından önemli riskler oluşturacak şekilde gelişmiş yapay zeka sistemleri geliştirmemeli veya konuşlandırmamalıdır ve bu nedenle kabul edilemez.”
Son olarak, bilim ve sivil toplum toplulukları da net sınırlar talep ediyor. Önde gelen uluslararası yapay zeka bilim insanları tarafından imzalanan IDAIS Pekin Mutabakat Bildirgesi , kendi kendini kopyalayan sistemler, güç arayan davranışlar, aldatma, siber saldırılar ve yapay zeka destekli silah geliştirme konularında kırmızı çizgiler talep ediyor.
Yapay zekanın kırmızı çizgilerine dair örnekleri nerede bulabiliriz?
Aşağıdaki tablo, yapay zeka kırmızı çizgilerinin somut politikalarda ortaya çıkışını üç bağlamda ele almaktadır: düzenleyici, çok taraflı ve bilimsel ve sivil toplum bağlamları. Her örneğin kapsamını, durumunu ve dikkate değer hususlarını vurguluyoruz. Bu, kapsamlı bir liste değil, farklı ortamlarda şekillenen politika türlerine dair açıklayıcı bir genel bakıştır.
|
Düzenleyici, Çok Taraflı ve Bilimsel ve Sivil Bağlamlarda Ortaya Çıkan “Yapay Zeka Kırmızı Çizgi” Politikaları |
|||
| Girişim/ Anlaşma | Temel Kırmızı Çizgi Örnekleri | Kapsam ve Durum | Dikkate alınması gereken hususlar |
| Düzenleyici: Bölgesel, ulusal ve yerel | |||
| AB Yapay Zeka Yasası (2024) ve Genel Amaçlı Yapay Zeka Uygulama Tüzüğü | Yapay zeka sistemlerine ilişkin yasaklar: – Bilinçaltı, manipülatif veya aldatıcı tekniklerin kullanılması – Güvenlik açıklarından faydalanılması – Biyometrik kategorizasyon sistemleri – Sosyal puanlama – Bir bireyin suç işleme riskinin değerlendirilmesi – Yüz tanıma veri tabanlarının derlenmesi – İşyerlerinde veya eğitim kurumlarında duyguların çıkarılması – Kolluk kuvvetlerinin kamuya açık alanlarda ‘gerçek zamanlı’ uzaktan biyometrik tanımlama (RBI)Ayrıca, AB Uygulama Tüzüğü’nde tanımlandığı gibi, “Sistemik Risk Kabul Kriterleri”ne göre kabul edilemez sistemik riskler oluşturan genel amaçlı yapay zeka modelleri için ek yasaklar vardır. |
AB üye ülkeleri için yasal olarak bağlayıcıdır | -İlk kapsamlı yapay zeka düzenlemesi -Özellikle kolluk kuvvetleri, ulusal güvenlik ve araştırma ve geliştirme (Ar-Ge) ile ilgili istisnalar ve nüanslar mevcuttur |
| Take It Down Yasası (2025) | Hem gerçek görüntüler hem de yapay zeka tarafından oluşturulan deepfake’ler dahil olmak üzere, bireylerin mahrem görsel tasvirlerinin rızası olmadan çevrimiçi olarak yayınlanmasının yasaklanması. | ABD federal düzeyinde yasal olarak bağlayıcıdır | Çevrimiçi platformların geçerli bir bildirim aldıktan sonraki 48 saat içinde bu tür içerikleri kaldırmasını gerektirir ancak bir “güvenli liman” hükmü vardır |
| TRAIGA , Teksas Sorumlu Yapay Zeka Yönetişim Yasası (2025) | Aşağıdaki özelliklere sahip yapay zeka sistemlerine ilişkin yasaklar: – Kendine zarar vermeyi, başkalarına zarar vermeyi veya suç faaliyetlerini kasıtlı olarak teşvik eden – Eyalet veya federal yasalar kapsamında korunan sınıflara karşı ayrımcılık yapan – Çocuk pornografisi veya yasa dışı cinsel içerikli derin sahte içerik üreten veya dağıtan – Bir kişinin federal Anayasal haklarını ihlal eden – Bilgilendirilmiş onay olmadan belirli kişilerin sosyal puanlaması veya biyometrik tanımlaması için kullanılan |
Teksas’ta yasal olarak bağlayıcıdır | -Niyet çok önemlidir ve ihlalleri belirlemede kasıtlı eylemleri temel faktör haline getirir -Bazı yasaklar özellikle devlet kurumlarına uygulanır; ABD federal yasası eyalet yasalarını geçersiz kılabilir |
| ABD’de belediyelerin yüz tanıma teknolojilerine yönelik yasakları (örneğin San Francisco , Oakland , Boston ) | Hükümetlerin yüz tanıma teknolojilerini kullanmasına ilişkin yasaklar | ABD belediye düzeyinde yasal olarak bağlayıcı yönetmelikler | Yerel vatandaşların ve sivil toplum örgütlerinin (STK) tabandan gelen muhalefetiyle yönlendiriliyor |
| Brezilya’nın Yapay Zeka Yasası (henüz yürürlüğe girmedi) | Zarar vermek amacıyla güvenlik açıklarını manipüle eden veya kullanan, suç riski tahmini için bireyleri değerlendiren, çocuk istismarı materyallerini kolaylaştıran, kamu otoriteleri tarafından sosyal puanlama yapılmasını sağlayan, otonom silahlar oluşturan ve kamusal alanlarda gerçek zamanlı biyometrik tanımlama kullanan (sınırlı kolluk kuvvetleri istisnaları ile) sistemlere yönelik önerilen yasaklar. | Brezilya’da yürürlüğe girmesi halinde yasal olarak bağlayıcıdır | Tasarı, Brezilya yasama sürecinden geçiyor. 2 Temmuz 2025 itibarıyla Senato tarafından hazırlanıp onaylandı ve şu anda Kongre’de özel bir komisyonda. |
| Girişim/ Anlaşma | Temel Kırmızı Çizgi Örnekleri | Kapsam ve Durum | Dikkate alınması gereken hususlar |
| Çok taraflı | |||
| Avrupa Konseyi Yapay Zeka Çerçeve Sözleşmesi (2024) | Yapay zekaya ilişkin moratoryum insan haklarıyla bağdaşmıyor, demokrasi ve hukukun üstünlüğünün korunmasına güçlü bir vurgu yapılıyor | 50’den fazla ülke tarafından imzalanan ilk yasal bağlayıcılığı olan uluslararası AI anlaşması | -Avrupa dışındaki ülkelere açıktır -Küresel aktörlerin (örneğin Çin) imzacıları yoktur -Özel sektörde uygulanabilirliği sınırlıdır |
| Seul Zirvesi Bakanlık Beyanı ve Frontier AI Güvenlik Taahhütleri (2024) | Bakanlık açıklaması ve Güvenlik Taahhütleri, yeterli şekilde azaltılmadığı takdirde tahammül edilemez sayılacak risk eşiklerinin belirlenmesi konusunda mutabakata varmıştır. | 27 ülke ve AB tarafından imzalanan bakanlık bildirisi; 20 teknoloji kuruluşu tarafından imzalanan güvenlik taahhütleri | – Kilit ülkelerden (örneğin Çin) imzacı eksikliği var – Yapay Zeka Eylem Zirvesi bu taahhütlere ilişkin herhangi bir takip sağlamadı |
| OECD (2023) tarafından desteklenen G7 Hiroşima Süreci Gelişmiş Yapay Zeka Sistemleri Geliştiren Kuruluşlar için Uluslararası Davranış Kuralları | Yapay zekanın şunları yapmaması çağrısında bulunuluyor: -Demokratik değerleri baltalamak -Terörizmi veya suç teşkil eden kötüye kullanımı kolaylaştırmak -Güvenlik, emniyet ve insan hakları açısından önemli riskler oluşturmak ve bu nedenle kabul edilemez olmak |
G7 üye ülkeleri | – OECD , gelişmiş yapay zeka sistemleri geliştiren kuruluşlar arasında şeffaflık ve hesap verebilirliği teşvik etmek için gönüllü bir raporlama çerçevesi başlattı – Şu ana kadar 20 kuruluş raporlama sürecine katıldı |
| UNESCO Yapay Zeka Etiği Tavsiyesi (2021) | Yapay zekanın şu amaçlarla kullanılmasına ilişkin özel yasaklar içerir: -Sosyal puanlama -Kitlesel gözetim |
194 UNESCO üye devleti | – UNESCO , Üye Devletlerin UNESCO Tavsiyesini uygulamalarında destek sağlamak amacıyla bir Hazırlık Değerlendirme Metodolojisi (RAM) başlattı – Tavsiyeyi imzalayan bazı ülkeler yasaklı uygulamaları kullanmakla eleştirildi |
| Girişim/ Anlaşma | Temel Kırmızı Çizgi Örnekleri | Kapsam ve Durum | Dikkate alınması gereken hususlar |
| Bilimsel ve sivil | |||
| IDAIS Pekin Mutabakat Beyanı (2024) | Uluslararası kırmızı çizgilerin gerekliliği konusunda fikir birliği, şunlar dahil: -Otonom çoğaltma veya iyileştirme -Güç arayışı -Silah geliştirmeye yardımcı olma -Siber saldırılar -Aldatma |
Uluslararası yapay zeka bilim insanları | -Henüz bağlayıcı siyasi taahhütlere dönüştürülmedi – Geliştiricilerin, örneğin sıkı deneysel testler, nicel güvenceler veya resmi matematiksel kanıtlar yoluyla kırmızı çizgilerin aşılmayacağını gösterme sorumluluğunun olması gerektiğini vurgular |
Tablo 1: Düzenleyici, çok taraflı ve bilimsel ve medeni bağlamlarda ortaya çıkan “Yapay Zeka kırmızı çizgi” politikaları
Temel hazır, peki gerçekten tutunabilecek küresel kırmızı çizgileri nasıl oluşturacağız?
Bu büyüyen kırmızı çizgiler ekosistemi, dünyanın artık sınırlara ihtiyaç olup olmadığını değil, hangi sınırların çizileceğini ve bunların nasıl uygulanacağını tartıştığını gösteriyor . Şimdiki zorluk, düzenleyici, çok taraflı ve sivil çabalardan, yapay zeka kırmızı çizgileri konusunda tutarlı ve küresel olarak koordineli bir çerçeveye geçmektir.
Dizinin son bölümü olan 3. Bölüm’de , yapay zeka için küresel kırmızı çizgiler oluşturmanın farklı yollarını inceliyoruz. Küresel kırmızı çizgileri ilerletmek için gönüllülerden oluşan bir koalisyon oluşturmak, uygulama yollarını açmak için diplomatik topluluğu dahil etmek ve etkili izleme ve doğrulama için planlar tasarlamak gibi üç temel hususu özetleyerek bitiriyoruz.