Yasanın temel başlıkları şu metinlerden oluşuyor:
- Genel amaçlı yapay zekaya ilişkin önlemler
- Kolluk kuvvetleri tarafından biyometrik tanımlama sistemlerinin kullanımına ilişkin sınırlamalar
- Kullanıcının güvenlik açıklarını manipüle etmek veya istismar etmek için kullanılan sosyal puanlama ve yapay zekaya ilişkin yasaklar
- Tüketicilerin şikayette bulunma ve anlamlı açıklamalar alma hakkı
Aralık 2023’te üye ülkelerle yapılan müzakerelerde mutabakata varılan düzenleme , Avrupa Parlamentosu üyeleri tarafından 523 lehte, 46 aleyhte ve 49 çekimser oyla kabul edildi.
Temel hakları, demokrasiyi, hukukun üstünlüğünü ve çevresel sürdürülebilirliği yüksek riskli yapay zekadan korumayı, yenilikçiliği artırmayı ve Avrupa’yı bu alanda lider konuma getirmeyi amaçlıyor. Yönetmelik, yapay zekanın potansiyel risklerine ve etki düzeyine göre yükümlülükler getiriyor.
Yasaklanan uygulamalar
Yeni kurallar, hassas özelliklere dayalı biyometrik sınıflandırma sistemleri ve yüz tanıma veritabanları oluşturmak için internetten veya CCTV görüntülerinden hedefsiz olarak yüz görüntülerinin kazınması da dahil olmak üzere vatandaşların haklarını tehdit eden belirli yapay zeka uygulamalarını yasaklıyor. İşyerinde ve okullarda duygu tanıma, sosyal puanlama, tahmine dayalı polislik (yalnızca bir kişinin profilini çıkarmaya veya özelliklerini değerlendirmeye dayandığında) ve insan davranışını manipüle eden veya insanların zayıf noktalarından yararlanan yapay zeka da yasaklanacak.
Kanun yaptırımı muafiyetleri
Biyometrik tanımlama sistemlerinin kolluk kuvvetleri tarafından kullanılması, kapsamlı bir şekilde listelenmiş ve dar bir şekilde tanımlanmış durumlar dışında prensip olarak yasaktır. “Gerçek zamanlı” yalnızca katı güvenlik önlemlerinin karşılanması durumunda uygulanabilir; örneğin kullanımının zaman ve coğrafi kapsam açısından sınırlı olması ve önceden belirli adli veya idari izne tabi olması gibi. Bu tür kullanımlar, örneğin kayıp bir kişinin hedefli olarak aranmasını veya bir terörist saldırının önlenmesini içerebilir. Bu tür sistemlerin sonradan kullanılması yüksek riskli bir kullanım durumu olarak kabul edilir ve adli yetkinin ceza gerektiren bir suçla bağlantılı olmasını gerektirir.
Yüksek riskli sistemlere ilişkin yükümlülükler:
Diğer yüksek riskli yapay zeka sistemleri için de açık yükümlülükler öngörülmektedir (sağlığa, güvenliğe, temel haklara, çevreye, demokrasiye ve hukukun üstünlüğüne yönelik önemli potansiyel zararları nedeniyle). Yüksek riskli yapay zeka kullanım örnekleri arasında kritik altyapı, eğitim ve mesleki eğitim, istihdam, temel özel ve kamu hizmetleri (örneğin sağlık hizmetleri, bankacılık), kolluk kuvvetlerindeki belirli sistemler, göç ve sınır yönetimi, adalet ve demokratik süreçler (örneğin seçimleri etkileme) yer alır. Bu tür sistemler riskleri değerlendirmeli ve azaltmalı, kullanım kayıtlarını tutmalı, şeffaf ve doğru olmalı ve insan gözetimini sağlamalıdır. Vatandaşlar yapay zeka sistemleri hakkında şikayette bulunma ve haklarını etkileyen yüksek riskli yapay zeka sistemlerine dayalı kararlar hakkında açıklama alma hakkına sahip olacak.
Şeffaflık gereksinimleri
Genel amaçlı yapay zeka (GPAI) sistemleri ve bunların temel aldığı GPAI modelleri, AB telif hakkı yasasına uygunluk ve eğitim için kullanılan içeriğin ayrıntılı özetlerinin yayınlanması da dahil olmak üzere belirli şeffaflık gerekliliklerini karşılamalıdır. Sistemik riskler oluşturabilecek daha güçlü GPAI modelleri, model değerlendirmeleri yapmak, sistemik riskleri değerlendirmek ve azaltmak ve olayları raporlamak da dahil olmak üzere ek gereksinimlerle karşı karşıya kalacaktır.
Ayrıca yapay veya değiştirilmiş görsellerin, ses veya video içeriklerinin (“deepfake”) bu şekilde açıkça etiketlenmesi gerekir.
Daha fazla Okuma için: