Laura Lazaro Cabrera , Laura Caroli, David Evan Harris / 28 Mart 2025
1 Ağustos 2024’te yürürlüğe giren AB Yapay Zeka Yasası, yapay zeka şirketleri, akademi ve sivil toplum örgütlerinden yaklaşık 1.000 paydaşın yer aldığı bir çalışma grubunun dahil olduğu bir ” ortak düzenleyici ” süreci başlattı. Bu çalışma grubu şu anda, yapay zeka geliştiricilerinin modeller için kurallar belirleyen Yapay Zeka Yasası’nın temel bölümlerine nasıl uyabileceklerine ilişkin ayrıntılı bir talimat kılavuzu olan Genel Amaçlı Yapay Zeka Uygulama Tüzüğü’nün taslağının son aşamasındadır. Kılavuzu takip eden geliştiricilere Yasaya “uyumluluk varsayımı” sağlanır, ancak isterlerse kendi yöntemleriyle uymayı seçebilirler.
İkimiz (Laura Lazaro Cabrera ve David Evan Harris) bu devasa çalışma grubunun üyeleriyiz ve birimiz (Laura Caroli) Avrupa Parlamentosu çalışanı olarak AB Yapay Zeka Yasası’nın yazılmasına yardımcı oldu. Burada birlikte yazıyoruz çünkü Uygulama Kuralları’nın sondan bir önceki taslağının insan haklarını korumada başarısız olmasından ciddi şekilde endişe duyuyoruz. Bu taslak, yapay zeka geliştiricilerinin yapay zeka modellerinden kaynaklanan insan hakları risklerini azaltma yollarını önemli ölçüde sınırlayan hatalı bir mantığa dayanıyor.
YZ Yasası ve dolayısıyla Kod, “genel amaçlı YZ modelleri” ile “sistemik riske sahip genel amaçlı YZ modelleri” arasında ayrım yapar. YZ Yasası tarafından belirlenen bir eğitim hesaplama eşiğine veya Komisyon tarafından bir dizi kritere göre belirlenmeye dayalı olarak ikinci kategoriye giren modeller, risk değerlendirmeleri yapmak ve ardından belirlenen riskleri azaltmak gibi ek yükümlülüklere tabidir. Kodun temel işlevlerinden biri, bu modellerin sağlayıcılarının değerlendirmesi gereken risk türlerini belirtmektir.
İlk taslaktan itibaren, Kod risk kategorileri arasında ayrım yapan iki kademeli bir yaklaşım içeriyordu. Ancak, mevcut taslakta , ikinci risk kategorisi basitçe “ek”ten “isteğe bağlı”ya geçti. Bu Pazartesi günü Chatham House Kuralı uyarınca sivil toplum katılımcıları için Uygulama Kodu taslak süreci üzerine düzenlenen bir çalıştayda, katılımcılardan biri Avrupa’nın YZ yeniliklerini kaçırmaması için YZ şirketlerindeki gerekliliklerin azaltılması gerektiğini açıkladı. Son taslağa ilişkin yorumlarında (bkz. sayfa 8 ), bunun nasıl gerçekleştiğini açıkça belirtiyorlar:
İkinci taslaktaki değişikliklerin özeti: Ölçüm II.1.2’de, sistemik risk kademelerini yalnızca seçili sistemik riskler için zorunlu hale getirdik (Ek 1.1), ancak diğer sistemik riskler için isteğe bağlı hale getirdik….
İsteğe bağlı risklerin listesi şaşırtıcı derecede geniştir:
- Kamu sağlığı, emniyeti veya kamu güvenliğine yönelik riskler, örneğin kritik sektörlere yönelik risk; büyük kaza riski; kritik altyapıya yönelik risk.
- Temel haklara yönelik riskler, örneğin ifade özgürlüğüne yönelik risk; ayrımcılığa uğramama riski; mahremiyete ve kişisel verilerin korunmasına yönelik risk; çocuk cinsel istismarı materyali (CSAM) ve rıza dışı mahrem görüntüler (NCII) kaynaklı risk.
- Toplumun bir bütün olarak maruz kaldığı riskler, örneğin; çevreye yönelik risk; insan dışı canlıların refahına yönelik risk; finansal sistem istikrarına yönelik risk; demokratik süreçlere yönelik risk; yasadışı, şiddet içeren, nefret dolu, radikalleştirici veya yanlış içerikten kaynaklanan risk.
Dikkat çekici bir şekilde, ayrımcılık bu taslakta da zorunlu risk listesinden isteğe bağlı listeye taşındı. Şu anda, Kanun kapsamında yalnızca dört risk zorunlu değerlendirme gerektiriyor: “kimyasal, biyolojik, radyolojik ve nükleer (KBRN)”, “siber suç”, “kontrol kaybı” ve “zararlı manipülasyon”.
Tasarıyı hazırlayanların öne sürdüğü argüman, insan hakları risklerinin, güçlü GPAI modellerinin “yüksek etkili yeteneklerinden” kaynaklanan ana “sistemik riskler” arasında olmadığıdır. GPAI modelleri, “en gelişmiş genel amaçlı yapay zeka modellerinde kaydedilen yeteneklerle eşleşen veya onları aşan” yetenekler olarak tanımlanmaktadır.
Ancak, YZ Yasası’nın baş müzakerecilerinden Avrupa Komisyonu Başkan Yardımcısı ve Komiseri Henna Virkkunen’e gönderilen bir kamu mektubunda açıkça açıklandığı ve ortak bir sivil toplum mektubunun vurguladığı gibi bu riskler yalnızca bir modelin yüksek etkili yetenekleriyle ilgili olmak zorunda değildir, aynı zamanda basitçe YZ modellerinin geniş ölçekte benimsenmesinden de kaynaklanabilir. Dahası, bu tür etkiler teorik veya uzun vadeli varoluşsal riskler değildir. Bunlar bugün zaten gerçekleşiyor. Bu kadar geniş bir insan hakları riskleri kümesinin isteğe bağlı statüye düşürülebilmesi, bu sürecin kurumsal çıkarların baskısı altında çöktüğüne dair açık bir sinyal gönderiyor.
Ayrımcılığın, gerici cinsiyet stereotiplerinden açıkça ırkçılığa kadar YZ modellerini etkileyen bilinen bir sorun olduğu konusunda geniş bir bilimsel fikir birliği vardır. Aktif olarak değerlendirilmediği ve azaltılmadığı takdirde, YZ modelleri tarafından ayrımcılık neredeyse kaçınılmazdır çünkü geniş eğitim veri kümelerinde sıklıkla bulunan önyargılar nedeniyle modelin kendi öğrenme materyallerine yerleşmiştir. Modeller büyüdükçe ve daha karmaşık hale geldikçe, ayrımcılık riski ortadan kalkmaktan çok uzaktır – bunun yerine, ortaya çıkan araştırmalar gelişmiş YZ modellerinin hala ayrımcılık yaptığını ancak bunu gizlice yaptığını göstermektedir .
Benzer şekilde, bazı popüler YZ modellerini eğitmek için kullanılan verilerde yasadışı çocuk cinsel istismarı materyali (CSAM) bulunduğu ve bu modellerin zararlı içeriği büyük ölçekte kopyalamasını mümkün kıldığı da yaygın bir bilgidir. Bu modeller ayrıca, hem çocukların hem de yetişkinlerin rızaya dayanmayan mahrem görüntülerini (NCII) üreten “soyunma” veya “çıplaklaştırma” uygulamaları oluşturmak için de kullanılmıştır. İyi bilinen LAION-5B veri kümesi vakası açıklayıcı bir örnektir, ancak bu veri kümesinde CSAM’ı tanımlamak yalnızca açık olması ve harici araştırmacıların sorgulamasına izin vermesi nedeniyle mümkün olmuştur. Açık kaynaklı veri kümeleri normdan ziyade istisna olmaya devam etmektedir (“açık kaynaklı” olarak reklamı yapılan modellerde bile). Bu nedenle, model sağlayıcıları veri kümelerini izlemek ve temizlemek için ayrıcalıklı -ve genellikle benzersiz- bir konumdadır. Şu anda, bu sorumluluk taslak Uygulama Tüzüğü tarafından kabul edilmemektedir.
Son olarak, YZ modellerinin kişisel veriler açısından zengin, herkese açık olarak toplanan içeriklere olan güveni , kişisel verilerin tekrar tekrar çıkarılabilmesi ve çıkarılabilmesi nedeniyle önemli gizlilik zorlukları ortaya çıkarmaktadır. Giderek artan sayıda vaka, modellerin kişisel verileri saklamasının gerçek kişiler hakkında yanlış, iftira niteliğinde bilgilerin üretilmesine yol açabileceğini göstermektedir .
Bu bilinen riskleri göz ardı etmek AB için gerçek ve öngörülemeyen sonuçlara yol açabilir.
DeepSeek’in R1 YZ modeli, son aylarda dünyaya, şu anda piyasada bulunan en gelişmiş modellerin (GPT, Gemini vb.) işlem gücü ve maliyetinin bir kısmıyla eğitilen ve açık ağırlık lisansı altında yayınlanan küçük modellerin, mevcut en gelişmiş modellerden bazıları kadar güçlü olabileceğini göstererek dalgalar yarattı . Üreticilerinin açıklamalarına göre, R1, bir modeli otomatik olarak sistemik risk oluşturuyor olarak sınıflandırmak için YZ Yasası kapsamında belirtilen işlem eşiğini karşılamayacaktır. Ancak, R1, YZ Yasası’nın Ek XIII’ünde listelenen kriterlerin bir kombinasyonunu kullanarak (işletme kullanıcılarının sayısı ve son kullanıcıların sayısı gibi) AB YZ Ofisi tarafından hala sistemik risk modeli olarak belirlenebilir.
Deepseek , gizlilik riskleri (birkaç Avrupa veri koruma otoritesinin hem DeepSeek uygulaması hem de arkasındaki R1 modeliyle ilgili soruşturmalar başlatmasına yol açmış) ve kırmızı takım araştırmasına göre zararlı önyargı ve zararlı içerik riskleri ve ayrıca yaygın olarak belgelenen dezenformasyon riskleri gibi çeşitli güvenlik açıkları ve riskler göstermiştir . Kodun mevcut sürümü kapsamında, R1 sistemik risk içeren bir model olarak belirlenirse ve DeepSeek Uygulama Koduna bağlı kalırsa, şirket ortaya çıkan modeli anlamlı insan hakları risk azaltma önlemlerini içerecek şekilde ayarlamaktan kaçınabilir ve yüzeysel önlemler alarak gizlilik uyumsuzluğundan kaçmaya çalışabilir. Bahsedilen diğer risklere gelince, bunları hiç ele almasına bile gerek kalmayacaktır.
Uluslararası yaklaşımlar
Mevcut Kanun versiyonundaki yaklaşımın, Yapay Zeka Yasası’nı yanlış yorumlamasının yanı sıra, Yapay Zeka güvenliğine ilişkin mevcut uluslararası çabalarla ve ortaya çıkan çerçevelerle de çeliştiğini belirtmek önemlidir.
Kapsamına GP YZ modellerini de dahil eden Gelişmiş Yapay Zeka Sistemleri için Hiroşima Davranış Kuralları, sağlayıcıların gizlilik risklerini ve zararlı önyargı ve ayrımcılık risklerini değerlendirmelerini ve azaltmalarını açıkça gerektirir. Aslında, AB Yapay Zeka Yasası’nın sistemik risk kavramını açıklayan 110. Gerekçesi, kasıtlı olarak ve neredeyse tamamen Hiroşima Kodu’nun 1. Eyleminden alınmıştır. Hiroşima Kodu, bu bağlamda sistemik riskleri “kuruluşların dikkat etmeyi taahhüt ettiği” bir şey olarak listeler ve bunların arasında “toplumsal risklerin yanı sıra, gelişmiş yapay zeka sistemlerinin veya modellerinin zararlı önyargı ve ayrımcılığa yol açabileceği veya gizlilik ve veri koruması dahil olmak üzere geçerli yasal çerçevelerin ihlaline yol açabileceği yollar gibi bireylere ve topluluklara yönelik riskler” ve “dezenformasyonun kolaylaştırılması veya gizliliğe zarar verilmesi dahil olmak üzere demokratik değerlere ve insan haklarına yönelik tehditler”den bahseder.
Uluslararası uzmanların fikir birliği bu yönde gelişmeye devam ediyor. Aynı zamanda Uygulama Kuralları sürecinin Eş Başkanı olan Yoshua Bengio tarafından düzenlenen son Uluslararası Yapay Zeka Güvenliği Raporu da manipülasyon ve önyargıdan gizliliğe ve çevreye kadar GPYZ modellerine özgü çok çeşitli riskleri vurguluyor.
Çok taraflı çabalar bu yaklaşımı yıllardır tam olarak onaylamıştır. Küresel zorluklara yönelik politika çözümleri geliştiren 38 üye ülkeyle üyelik tabanlı uluslararası bir örgüt olan Ekonomik İşbirliği ve Kalkınma Örgütü (OECD), öncü YZ İlkeleri’nde aktörlerin insan haklarıyla bağlantılı olarak güvenceler uygulamasını şart koşmaktadır. 22 AB üye devleti ve Avrupa Birliği’nin tamamı dahil olmak üzere birçok hükümet OECD YZ ilkelerine uymayı kabul etmiştir . Diğer birkaç küresel YZzirvesi de benzer bir hak koruma yaklaşımı benimsemiştir; Bletchley Deklarasyonu ve Fransız YZ Eylem Zirvesi bildirgesi insan haklarının korunmasının önemini vurgulamıştır.
Çözüm
Mevcut haliyle Uygulama Kuralları taslağı, insan hakları korumasına yönelik zayıf ve seçici yaklaşımı nedeniyle geriye doğru bir adım atıyor; bu durum, Yapay Zeka Yasası’nın, uluslararası yaklaşımlara dayanan ve insan hakları için güçlü korumalar sunan, yapay zeka düzenlemesi için dünya lideri bir standart belirleme hedefleriyle de çelişiyor.