AVRUPA YAPAY ZEKA YASASI’nın ilk kuralları artık geçerli: ilk Uygulama: 2 Şubat 2025

Yapay Zeka Yasası, yapay zekanın risklerini ele alan ve Avrupa’nın küresel alanda öncü bir rol üstlenmesini sağlayan, yapay zeka konusunda ilk yasal çerçevedir.

 

Yapay Zeka Yasası ( Yapay zeka konusunda uyumlu kuralları belirleyen Yönetmelik (AB) 2024/1689), dünya çapında YZ konusunda ilk kapsamlı yasal çerçevedir. Kuralların amacı, Avrupa’da güvenilir YZ’yı teşvik etmektir.

YZ Yasası, YZ geliştiricileri ve dağıtımcıları için YZ’nın belirli kullanımları konusunda net bir risk tabanlı kurallar seti belirler. YZ Yasası,  YZ İnovasyon Paketi , YZ Fabrikalarının başlatılması  ve YZ Koordineli Planı’nı da içeren güvenilir YZ’nın geliştirilmesini desteklemek için daha geniş bir politika önlemleri paketinin parçasıdır . Bu önlemler birlikte, güvenliği, temel hakları ve insan merkezli YZ’yı garanti eder ve AB genelinde YZ’da benimsenmeyi, yatırımı ve inovasyonu güçlendirir.

Şekil 1. Avrupa Birliği Yapay Zeka Yasası Aşamaları

Komisyon, yeni düzenleyici çerçeveye geçişi kolaylaştırmak amacıyla,  gelecekteki uygulamayı desteklemeyi, paydaşlarla etkileşim kurmayı ve Avrupa ve ötesindeki yapay zeka sağlayıcılarını ve uygulayıcılarını Yapay Zeka Yasası’nın temel yükümlülüklerine önceden uymaya davet etmeyi amaçlayan gönüllü bir girişim olan Yapay Zeka Paktı’nı başlattı. AB Yapay zeka yasasının tarihsel gelişim aşamaları Şekil 1.’de verilmektedir.

Yapay zeka konusunda kurallara neden ihtiyacımız var?

YZ Yasası, Avrupalıların YZ’nın sunduğu şeylere güvenebilmelerini sağlar. Çoğu YZ sistemi sınırlı veya hiç risk oluşturmazken ve birçok toplumsal zorluğun çözümüne katkıda bulunabilirken, bazı YZ sistemleri istenmeyen sonuçlardan kaçınmak için ele almamız gereken riskler yaratır.

Örneğin, bir YZ sisteminin neden bir karar veya tahminde bulunduğunu ve belirli bir eylemi gerçekleştirdiğini bulmak çoğu zaman mümkün değildir. Bu nedenle, birinin işe alım kararında veya kamu yararına bir programa başvuruda olduğu gibi haksız yere dezavantajlı olup olmadığını değerlendirmek zorlaşabilir.

Mevcut mevzuat bir miktar koruma sağlasa da, yapay zeka sistemlerinin getirebileceği özel zorlukları ele almakta yetersiz kalmaktadır.

Risk temelli bir yaklaşım:

 

Şekil 2: YZ Yasası 4 tür risk tanımlaması yapıyor.: Kabul edilmeyen risk, Yüksek risk, Sınırlı Risk, Minimal risk.

 

Yapay Zeka Yasası, yapay zeka sistemleri için 4 düzeyde risk tanımlıyor:

Kabul edilemez risk

İnsanların güvenliği, geçim kaynakları ve hakları için açık bir tehdit olarak değerlendirilen tüm YZ sistemleri yasaklanmıştır. YZ Yasası sekiz uygulamayı yasaklamaktadır :

  1. Zararlı YZ tabanlı manipülasyon ve aldatma
  2. Zararlı YZ tabanlı güvenlik açıklarının istismarı
  3. Sosyal puanlama
  4. Bireysel suç riski değerlendirmesi veya tahmini
  5. Yüz tanıma veritabanlarını oluşturmak veya genişletmek için internet veya CCTV materyalinin hedefsiz bir şekilde taranması
  6. İşyerlerinde ve eğitim kurumlarında duygu tanıma
  7. Belirli korunan özellikleri çıkarmak için biyometrik kategorizasyon
  8. Kamuya açık alanlarda kolluk kuvvetleri için gerçek zamanlı uzaktan biyometrik tanımlama

Yüksek risk:

Sağlık, güvenlik veya temel haklar açısından ciddi riskler oluşturabilecek YZ kullanım durumları yüksek riskli olarak sınıflandırılır. Bu yüksek riskli kullanım durumları şunları içerir:

  • Kritik altyapılarda (örneğin ulaşım) YZ güvenlik bileşenleri, arızalanması durumunda vatandaşların hayatını ve sağlığını riske atabilir
  • Eğitim kurumlarında kullanılan, bir kişinin eğitime erişimini ve mesleki yaşam seyrini (örneğin sınav puanlaması) belirleyebilecek yapay zeka çözümleri
  • Ürünlerin YZ tabanlı güvenlik bileşenleri (örneğin robot destekli cerrahide YZ uygulaması)
  • İstihdam, çalışanların yönetimi ve serbest mesleklere erişim için yapay zeka araçları (örneğin işe alım için özgeçmiş sıralama yazılımı)
  • Temel özel ve kamu hizmetlerine erişim sağlamak için kullanılan belirli yapay zeka kullanım örnekleri (örneğin kredi notunun vatandaşların kredi alma fırsatını engellemesi)
  • Uzaktan biyometrik tanımlama, duygu tanıma ve biyometrik kategorizasyon için kullanılan yapay zeka sistemleri (örneğin, bir hırsızı geriye dönük olarak tanımlayan yapay zeka sistemi)
  • İnsanların temel haklarına müdahale edebilecek kolluk kuvvetlerinde YZ kullanım durumları (örneğin kanıtların güvenilirliğinin değerlendirilmesi)
  • Göç, iltica ve sınır kontrol yönetiminde yapay zeka kullanım örnekleri (örneğin vize başvurularının otomatik olarak incelenmesi)
  • Adalet ve demokratik süreçlerin yönetiminde kullanılan yapay zeka çözümleri (örneğin mahkeme kararlarının hazırlanmasında kullanılan yapay zeka çözümleri)

Yüksek riskli yapay zeka sistemleri piyasaya sunulmadan önce sıkı yükümlülüklere tabidir :

  • Yeterli risk değerlendirmesi ve azaltma sistemleri
  • Ayrımcı sonuçların risklerini en aza indirmek için sistemi besleyen veri kümelerinin yüksek kalitesi
  • Sonuçların izlenebilirliğini sağlamak için faaliyetlerin kaydedilmesi
  • Yetkililerin uyumluluğunu değerlendirmesi için sistem ve amacı hakkında gerekli tüm bilgileri sağlayan ayrıntılı belgeler
  • Dağıtıcıya açık ve yeterli bilgi
  • Uygun insan gözetim önlemleri
  • Yüksek düzeyde sağlamlık, siber güvenlik ve doğruluk

Şeffaflık riski:

Bu, YZ kullanımına ilişkin şeffaflık ihtiyacıyla ilişkili riskleri ifade eder. YZ Yasası, güveni korumak için gerektiğinde insanların bilgilendirilmesini sağlamak amacıyla belirli açıklama yükümlülükleri getirir. Örneğin, chatbot’lar gibi YZ sistemleri kullanıldığında, insanların bir makineyle etkileşimde bulunduklarının farkında olmaları ve böylece bilinçli bir karar alabilmeleri gerekir.

Ayrıca, üretken YZ sağlayıcıları, YZ tarafından üretilen içeriğin tanımlanabilir olduğundan emin olmalıdır. Bunun da ötesinde, belirli YZ tarafından üretilen içerikler, özellikle deep fake’ler ve kamuoyunu kamu yararına olan konularda bilgilendirmek amacıyla yayınlanan metinler, açıkça ve görünür şekilde etiketlenmelidir.

Minimum veya hiç risk yok:

YZ Yasası, asgari veya hiç risk taşımayan YZ için kurallar getirmez. AB’de şu anda kullanılan YZ sistemlerinin büyük çoğunluğu bu kategoriye girer. Buna YZ destekli video oyunları veya spam filtreleri gibi uygulamalar dahildir1.

 

Yapay Zeka Madde 4: Yapay Zeka Okur Yazarlığı, 2 Şubat 2025’de yürürlüğe girdi.

Yapay zeka sistemlerinin sağlayıcıları ve uygulayıcıları, kendi personellerinin ve yapay zeka sistemlerinin işletimi ve kullanımıyla kendileri adına ilgilenen diğer kişilerin yeterli düzeyde yapay zeka okuryazarlığına sahip olmasını sağlamak için, bu kişilerin teknik bilgi, deneyim, eğitim ve öğretimlerini ve yapay zeka sistemlerinin kullanılacağı bağlamı ve yapay zeka sistemlerinin kullanılacağı kişileri veya kişi gruplarını göz önünde bulundurarak tedbirleri en iyi şekilde alacaklardır2.

AB Yapay Zeka Yasası’nın sınırı yok.

AB YZ Yasası’nın sınır ötesi kapsamı, AB dışındaki kuruluşların kesinlikle kurtulmuş olmadığı anlamına geliyor. Marcus Evans’ın açıkladığı gibi, Yasa AB sınırlarının çok ötesine uygulanıyor.

Evans, “YZ Yasası gerçekten küresel bir uygulamaya sahip olacak,” diyor. “Bunun nedeni, yalnızca AB’de YZ kullanan kuruluşlar veya AB pazarına YZ sağlayan, ithal eden veya dağıtan kuruluşlar için değil, aynı zamanda çıktının AB’de kullanıldığı YZ sağlama ve kullanımı için de geçerli olmasıdır. Yani, örneğin, AB’de işe alım için YZ kullanan bir şirket -başka bir yerde bulunsa bile- yine de bu yeni kurallar tarafından kapsanacaktır.”

Evans, işletmelere YZ kullanımını denetleyerek başlamalarını tavsiye ediyor. “Bu aşamada, işletmeler öncelikle YZ’nın kuruluşlarında nerede kullanıldığını anlamalı, böylece herhangi bir kullanım durumunun yasakları tetikleyip tetikleyemeyeceğini değerlendirebilirler. Bu ilk envantere dayanarak, YZ kullanımının değerlendirilmesini, yasakların dışında kalmasını ve YZ Yasası’na uymasını sağlamak için daha geniş bir yönetişim süreci başlatılabilir.”

Kuruluşlar yapay zeka uygulamalarını yeni düzenlemelerle uyumlu hale getirmek için çalışırken, ek zorluklar devam ediyor. Uyumluluk, veri koruma, fikri mülkiyet (FM) ve ayrımcılık riskleri gibi diğer yasal karmaşıklıkların ele alınmasını gerektirir.

Evans, kuruluşlar içinde yapay zeka okuryazarlığının artırılmasının da kritik bir adım olduğunu vurguluyor.

“Kapsam dahilindeki tüm kuruluşlar, çalışanlarının ve kendi adlarına yapay zeka sistemlerinin işletimi ve kullanımıyla ilgilenen diğer herkesin yeterli düzeyde yapay zeka okuryazarlığına sahip olmasını sağlamak için önlemler almalıdır” diyor.

“Yapay zeka okuryazarlığı, Yapay Zeka Yasası’na uyumda hayati bir rol oynayacak çünkü yapay zekayı yöneten ve kullanan kişiler, yönettikleri riskleri anlamalı3

 

AB Yapay Zeka ile ilgili Komisyon, İlk Yapay Zeka Yasası’ uygulanmasının kurallarının kolaylaştırılması için, Yapay Zeka Sistemi tanımına ilişkin yönergeler yayınladı:

Yapay Zeka sistemi tanımına ilişkin kılavuz, Yapay Zeka Yasası’nda yer alan hukuki kavramın pratik uygulamasını açıklamaktadır.

Komisyon, yapay zeka sistemi tanımına ilişkin yönergeler yayınlayarak, sağlayıcıların ve diğer ilgili kişilerin bir yazılım sisteminin bir yapay zeka sistemi olup olmadığını belirlemelerine yardımcı olmayı ve kuralların etkili bir şekilde uygulanmasını kolaylaştırmayı amaçlamaktadır.

YZ sistem tanımına ilişkin yönergeler bağlayıcı değildir. Zamanla evrimleşecek şekilde tasarlanmıştır ve özellikle pratik deneyimler, yeni sorular ve ortaya çıkan kullanım durumları ışığında gerektiği şekilde güncellenecektir.

Komisyon , Yapay Zeka (YZ) Yasası’nda tanımlandığı şekliyle yasaklı yapay zeka (YZ) uygulamalarına ilişkin Kılavuz’a ek olarak bu kılavuzu yayınladı .

Sağlık, güvenlik ve temel hakların yüksek düzeyde korunmasını sağlarken inovasyonu teşvik etmeyi amaçlayan Yapay Zeka Yasası, yapay zeka sistemlerini yasaklı, yüksek riskli ve şeffaflık yükümlülüklerine tabi olanlar olmak üzere farklı risk kategorilerine ayırıyor.

Pazar, 2 Şubat itibarıyla Yapay Zeka Yasası (YZ Act) kapsamındaki ilk kurallar uygulanmaya başlandı. Bunlar arasında YZ sistemi tanımı, YZ okuryazarlığı ve YZ Yasası’nda belirtildiği gibi AB’de kabul edilemez riskler oluşturan çok sınırlı sayıda yasaklı YZ kullanım durumu yer alıyor4,5.

  

  1. https://artificialintelligenceact.eu/chapter/1/
  2. https://artificialintelligenceact.eu/article/4/
  3. https://www.artificialintelligence-news.com/news/eu-ai-act-what-businesses-need-know-regulations-go-live/
  4. 4. https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application?pk_source=ec_newsroom&pk_medium=email&pk_campaign=Shaping%20Europe%27s%20Digital%20Future%20website%20update
  5. Approval of the content of the draft Communication from the Commission – Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act)

6 . https://www.pwc.nl/en/services/audit-assurance/pwc-accountancy-insights/data-it-and-internal-control/ai-literacy-under-the-eu-ai-act.html

Scroll to Top