AB’nin Yapay Zeka Yasası: Klavuz Yönergelere Dikkatle Uyun.

Kris Shrishak / Feb 21, 2025

Avrupa’nın AI Yasası Haziran 2024’te yayınlandı . Ancak Avrupa Birliği Adalet Divanı’nın (ABAD) yorumlayıcı rehberliğinin gelmesi yıllar alacak. Bu arada, Avrupa Komisyonu’nun geliştiricilere, dağıtımcılara veya bu yasayı önemseyen diğer herkese yardımcı olmak için yönergeler yayınlaması gerekiyor. Yasal olarak bağlayıcı olmasa da, bu yönergeler AB ülkeleri tarafından yasayı uygularken ve AI geliştiricileri ve dağıtımcıları tarafından ihlale ceza verirken dikkate alınmalıdır. Ancak bu, AB ülkelerindeki düzenleyicilerin ve temel haklar kuruluşlarının yasayı Komisyondan farklı yorumlamasını engellemez.

AI Yasası’nın yasakları içeren ilk beş maddesi 2 Şubat 2025’ten beri yürürlükte. Bu bağlamda, Avrupa Komisyonu’nun Şubat ayının başlarında, ancak AI Yasası’nın ilgili bölümlerinin uygulanma tarihinden sonra yayınladığı iki kılavuzu okumamız gerekir. Kılavuzlar bir AI sisteminin tanımını ve AI Yasası’nın kapsadığı yasakları kapsar . Her iki kılavuz da yasal netliği iyileştirmeye çalışır. Ama bunu yaparlar mı?

Yapay Zeka sisteminin tanımı

Tanıma ilişkin yönergeler bir konuda mükemmeldir: elektronik tabloların yapay zeka sistemleri olmadığını bir kez ve herkes için belirtmek. Bunun ötesinde, belge netlikten çok kafa karışıklığına yol açıyor .

Bir yapay zeka sisteminin tanımı için yedi ana unsur vardır: “(1) makine tabanlı bir sistem; (2) değişen özerklik seviyeleriyle çalışmak üzere tasarlanmış; (3) konuşlandırıldıktan sonra uyarlanabilirlik gösterebilen; (4) ve açık veya örtük hedefler için; (5) aldığı girdiden, (6) tahminler, içerik, öneriler veya kararlar gibi çıktıların nasıl üretileceğini çıkaran (7) fiziksel veya sanal ortamı etkileyebilen”

Bu bileşenlerin hepsi eşit derecede önemli değildir. “Değişen düzeylerde özerklik” gerekli olsa da, uyarlanabilirlik isteğe bağlıdır. “Eylemlerin makul bir bağımsızlık derecesiyle çalışmak üzere tasarlanan tüm sistemler, bir AI sisteminin tanımındaki özerklik koşulunu yerine getirir.” Yönergeler, “değişen düzeyler”in sıfır özerklik içerip içermediği veya yedi unsurun önem hiyerarşisi hakkında ışık tutmaz.

Ancak, AI Yasası’nın 12. Gerekçesi, “çıkarımda bulunma yeteneğinin” AI sistemlerinin temel bir özelliği olduğunu belirtir. Bu yetenek “öğrenmeyi, akıl yürütmeyi veya modellemeyi mümkün kılarak temel veri işlemeyi aşar.” Çelişkili bir şekilde, yönergeler “matematiksel optimizasyonu” kapsam dışında bırakır çünkü “temel veri işlemeyi” aşmazlar.”

Ayrıca, kılavuzların kapsam dışı olduğunu belirttiği “matematiksel optimizasyon” için kullanılan bir yönteme örnek olarak “doğrusal veya lojistik regresyon” verilmiştir. Ancak, kılavuzlar “sistemlerin işleyişini optimize etmek” ile “karar verme modellerinin ayarlanması” arasında ayrım yapmaktadır. Kapsam dışı olan yalnızca ilkidir.

Yüksek riskli alanlardaki uygulamalar, örneğin “gerçek kişilerin temel kamu yardım faydaları ve hizmetleri için uygunluğunun” değerlendirilmesi, insanlar hakkında karar almayı içerir. Bu tür uygulamalarda doğrusal veya lojistik regresyon kullanmak, “karar alma modellerinde ayarlamalar” yapmayı içerir. Bu bağlamda, lojistik regresyon AI Yasası kapsamındadır.

ABD İngilizcesi “optimization” yazımını kullanmanın yanı sıra ( sadece çeşitlilik için ara sıra) kılavuzlar, belirli sistemlerin neden AI sistemleri olmayabileceğini açıklamak için yaratıcı nedenler sunar. Bu nedenler arasında “uzun yıllar boyunca konsolide bir şekilde” kullanım ve “performansları” yer alır. Ayrıca dairesel mantık da bulabilirsiniz: “AI destekli işlevleri içermeyen standart elektronik tablo yazılım uygulamaları” AI sistemleri değildir; Belki de en şaşırtıcı olanı: “[F]iziğe dayalı sistemler… [hesaplama performansını iyileştirmek için] makine öğrenimi tekniklerini kullanan” da kapsam dışındadır. “Fizik tabanlı sistemler” ifadesinin fizik yasalarına dayanan sistemleri ifade edip etmediği belirsizdir. Bilgisayar, fizik yasalarına bağlıdır .

Yasaklar

Yasaklamalarla ilgili yönergeler hem uzunluk hem de kalite açısından bir iyileştirmedir — marjinal de olsa. Belirli bir AI sisteminin yasaklanıp yasaklanmadığını değerlendirmek için vaka bazında bir analizin gerekli olduğunu haklı olarak belirtirler. Yine de, bu yönergeler böyle bir değerlendirmenin örneklerini sunmaz, ancak “sadece gösterge niteliğinde” örnekler sağlar.

Yapay Zeka Yasası’nda sekiz yasak yer alıyor:

  1. Manipülasyon ve aldatma
  2. Güvenlik açıklarının istismarı
  3. Sosyal puanlama
  4. Bireysel suç riski değerlendirmesi ve tahmini
  5. Yüz tanıma veri tabanlarını geliştirmek için hedefsiz kazıma
  6. İşyerlerinde ve eğitim kurumlarında duygu tanıma
  7. Biyometrik kategorizasyon
  8. Gerçek zamanlı uzaktan biyometrik tanımlama (RBI)

Gerçek zamanlı RBI yasağı dağıtıcılar için geçerlidir. Diğerleri sağlayıcılar, dağıtıcılar ve operatörler (her iki rolü de üstlenebilirler) için geçerlidir. Bu yasaklar, amaçlanan kullanımla sınırlı olmayan ancak makul ölçüde öngörülebilir olup olmadıklarına bakılmaksızın kötüye kullanımları da içeren bir AI sisteminin ‘kullanımını’ kapsar.

Yönergelerin doğrudan ve açık olduğu çok az yer vardır. Örneğin, “Europol ve Frontex gibi diğer Birlik güvenlik ajanslarının faaliyetleri AI Yasası kapsamına girmektedir.” İnsan hakları grupları daha önce ulusal güvenlik muafiyetinin kolluk kuvvetleri tarafından yasakları aşmak için kullanılabileceği konusunda endişelerini dile getirmişti . Bu kritik konuda, yönergeler Adalet Divanı’nın mevcut içtihatlarının ötesinde herhangi bir ek rehberlik sağlamamaktadır.

Başka bir örnek, yüz tanıma veritabanı geliştirmek için hedefsiz kazıma yasağının “veritabanının tek amacının … yüz tanıma için kullanılması”nı gerektirmediği; veritabanının yüz tanıma için kullanılabilmesinin yeterli olduğu” açıklamasıdır. Ancak, yüz görüntülerinin hedefsiz kazınması, GDPR, EUDPR ve LED uyarınca zaten yasadışıdır . Uygulama, özellikle de ülke dışı, sorun olmuştur.

Manipüle etmeyin, aldatmayın ve sömürmeyin

Yapay Zeka Yasası, manipülatif, aldatıcı veya insanların zaaflarını istismar ederek önemli zararlara yol açan yapay zeka sistemlerini yasaklar. Bu yasak, insanların yapay zeka sistemini önemli zararlara yol açacak şekilde tasarlamayı veya dağıtmayı amaçlamasa bile geçerlidir. Etki önemlidir.

Yasak, “bir bireyin kişisel verilerine dayalı olarak son derece ikna edici mesajlar oluşturan ve uyarlayan veya diğer bireylerin zaaflarını istismar ederek davranışlarını veya seçimlerini önemli bir zarara yol açacak noktaya kadar etkileyen bir yapay zeka sistemini” içerebilir. Buna, “düşük gelirli posta kodlarında yaşayan ve ciddi bir mali durumda olan … ve onlara önemli bir mali zarar veren” kişileri hedefleyen reklamlar da dahil olabilir.

“Şeffaf algoritmalar ve kullanıcı tercihleri ​​ve kontrollerine dayalı kişiselleştirilmiş öneriler kullanan yapay zeka sistemi ikna edicidir [yasak değildir].” Yönergeler, opak öneri sistemlerinin yasaklar kapsamında olabileceğini gösteriyor.

Genel amaçlı AI (GPAI) kuralları yalnızca 2 Ağustos 2025’ten itibaren geçerli olsa da, yasaklar, yasakların kapsamına girdiğinde GPAI için zaten geçerlidir. Örneğin, manipülatif veya aldatıcı olan ve önemli zararlara neden olan bir sohbet robotu biçiminde konuşlandırılan bir GPAI, yasaklanmış bir AI sistemi olacaktır.

İnsanlara zarar veren sosyal puanlama yasağı, sektör veya uygulama alanından bağımsız olarak kamusal ve özel bağlamlarda geçerlidir. Buna karşılık, “bireysel suç riski değerlendirmesi ve tahmini” yasağı yalnızca “sadece bir gerçek kişinin profilinin çıkarılmasına veya kişilik özelliklerinin ve karakteristiklerinin değerlendirilmesine” dayandığında geçerlidir. Bu, konuma dayalı tahmini polisliğin yasaklanmadığı anlamına gelir. Bu nedenle devriyeler, ” tarihsel verilere dayalı ve kolluk kuvvetlerinde ayrımcılığı ve eşitsizlikleri sürdüren ” tahmini algoritmalar tarafından kararlaştırılan alanlarda yoğun bir şekilde konuşlandırılabilir.

Biyometrik

Duygu tanıma yasağı yalnızca işyerleri ve eğitim kurumları için geçerlidir. İşyeri kavramı işe alım sürecini içerir ve serbest çalışanları korur. Ancak, yönergeler “[çağırma merkezlerinin müşterilerinin öfke veya sabırsızlık gibi duygularını izlemek için web kameraları ve ses tanıma sistemleri kullanması yasak değildir” ve “bir süpermarketin … birinin soygun yapmak üzere olduğu sonucuna varması AI Yasası’nın 5(1)(f) Maddesi uyarınca yasak değildir” ifadelerini kullandıklarında hoş olmayan bir okuma yaparlar. Bu örnekler, elbette, bunların yasal uygulamalar olduğu anlamına gelmez. Örneğin, geçerli bir yasal dayanak olmaksızın bu bağlamlarda müşterilerin biyometrik verilerinin işlenmesi veri koruma yasası uyarınca yasadışı olacaktır.

Kamusal alanlarda gerçek zamanlı uzaktan biyometrik tanımlama (gerçek zamanlı RBI) yasağı, bir toplu taşıma şirketi veya spor kulübü gibi başka bir kuruluş tarafından konuşlandırılmış olsa bile kolluk kuvvetleri amaçları için geçerlidir; eğer bir kolluk kuvveti bu konuşlandırmayı onlara devretmişse. Duygu tanıma yasağının aksine, bu yasağın istisnai bir izin listesi vardır ve bu, gerçek zamanlı RBI’yi “üç belirli ciddi suçun ve kayıp kişinin hedefli aranması”, “hayata veya fiziksel güvenliğe yönelik yakın tehditlerin veya gerçek bir terör saldırısı tehdidinin önlenmesi” ve “belirli ciddi suçların şüphelilerinin ve suçlularının tespiti” için kullanmak için yasal bir temel değildir.

Bu istisnai durumlarda, gerçek zamanlı RBI yalnızca aşağıdaki durumlarda kullanılabilir:

  • Bu durumlardan bir veya birkaçına yetki veren bir ulusal yasa kabul edilir;
  • Gereklilik ve orantılılığı değerlendirmek için kolluk kuvvetleri tarafından temel haklar etki değerlendirmesi (FRIA) yapılmıştır;
  • Her kullanım için, bir LEA (veya onlar adına bir kuruluş) gerçek zamanlı RBI kullanmak isterse, LEA’nın piyasa gözetim otoritesini (MSA) ve veri koruma otoritesini (DPA) bilgilendirmek için bağlayıcı kararı olan bir yargısal veya bağımsız idari makamdan yetki alması gerekir (acil durumlarda sonradan onay gerektiğinde hariç); kullanım bilgilerini kamuya açık olmayan AB veri tabanına eklemek için.
  • DPA ve MSA, ülkelerinde gerçek zamanlı RBI’ın kullanım sıklığı vb. bilgileri içeren yıllık raporu Avrupa Komisyonu’na sunarlar.

Hiçbir AB ülkesi henüz gerçek zamanlı RBI kullanımını yetkilendiren bir ulusal yasa kabul etmediğinden, şu anda AB genelinde gerçek zamanlı RBI kullanımına ilişkin genel bir yasak bulunmaktadır. İrlanda ve Danimarka, AB antlaşmalarına eklenen Protokol 21-22 ile AI Yasası’nın kolluk kuvvetleriyle ilgili hükümlerinden muaf tutulmuştur. Kendi kurallarını koyabilirler.

Çözüm

Unutmayalım ki, Yapay Zeka Yasası’nın ötesinde, Yapay Zeka sistemleri ayrımcılık karşıtı yasalar ve GDPR gibi başka yasalarla da yasaklanabilir (örneğin, Yapay Zeka eğitimi için kişisel verilerin işlenmesine ilişkin yasal dayanağın olmaması nedeniyle).

Yasaklara ilişkin kılavuzlar, tehlike altındaki çeşitli temel haklara ve AB Şartı’na atıfta bulunmasına rağmen, 77. madde uyarınca belirlenen veri koruma otoriteleri hariç olmak üzere temel haklar organlarının rolünü belirtmemektedir. Bu şaşırtıcıdır çünkü yasaklar tamamen onların yetki alanına girmektedir ve bu kurumların uzmanlığı piyasa gözetim otoriteleri için hayati önem taşıyacaktır.

Yasaklamalarla ilgili yönergelerin en iyi yanı, güncellenebilmeleridir. Bir AI sisteminin tanımıyla ilgili yönergelerin en iyi yanı, yasal olarak bağlayıcı olmamalarıdır.

 

https://www.techpolicy.press/eu-ai-act-tread-the-guidelines-lightly/

 

Scroll to Top