Yasama süreci
Yapay Zeka Yasası nihayet kabul edildi: AB Konseyi, Yapay Zeka Yasasını 21 Mayıs’ta onayladı . Dünyada türünün ilk örneği olan bu mevzuat, ‘risk temelli’ bir yaklaşımı benimsiyor ve topluma zarar verme potansiyeli daha yüksek olan yapay zeka sistemlerine daha sıkı düzenlemeler getiriyor. Kanun, yapay zeka düzenlemeleri için potansiyel olarak küresel bir standart belirleyerek yapay zeka kurallarını standartlaştırmayı amaçlıyor. Birincil hedefi, AB’nin tek pazarında güvenli ve güvenilir yapay zeka sistemlerinin geliştirilmesini ve benimsenmesini teşvik ederek, yatırım ve yeniliği teşvik ederken temel haklara saygı duymalarını sağlamaktır. Ancak Kanun, askeri ve savunma uygulamaları ile araştırma amaçları gibi bazı alanları muaf tutmaktadır. Belçika’nın dijitalleştirme, idari basitleştirme, mahremiyetin korunması ve bina düzenlemesinden sorumlu Dışişleri Bakanı Mathieu Michel, Kanun’un güven, şeffaflık ve hesap verebilirlik üzerindeki vurgusunu vurgularken, hızla değişen bu teknolojinin Avrupa’daki yenilikçiliği geliştirip artırmasını da sağlıyor. Avrupa Parlamentosu ve Konsey başkanları tarafından imzalandıktan sonra, iki yıllık bir uygulama dönemiyle (bazı istisnalar dışında) yirmi gün sonra yürürlüğe girecek şekilde AB’nin Resmi Gazetesinde yayınlanacak.
Analizler
AB ve ABD arasındaki yakınlaşma ve farklılık alanları: Dünya Ekonomik Forumu Yapay Zeka ve Makine Öğrenimi Proje Lideri Benjamin Cedric Larsen ve Avrupa Komisyonu Avrupa Yapay Zeka Ofisi Politika Sorumlusu Sabrina Küspert, Brookings Enstitüsü’nün web sitesinde bir genel bakış yayınladı: AB ve ABD’nin genel amaçlı yapay zekayı düzenlemeye yönelik yaklaşımları arasındaki hem benzerlikleri hem de farklılıkları vurguluyor. ABD yürütme kararnamesi, federal kurumların Savunma Üretim Yasası kapsamında endüstri uygulamalarını ve raporlama gerekliliklerini şekillendirmesine yönelik yönergelere odaklanırken, Yapay Zeka Yasası, yasal olarak bağlayıcı kurallarla AB içindeki genel amaçlı yapay zeka modellerini doğrudan düzenliyor. Yapay Zeka Yasası kalıcı bir yönetim yapısı iken, yürütme kararnamesi değiştirilebilir ve iptal edilebilir. AB’nin düzenlenmiş genel amaçlı yapay zeka modelleri eşiği ABD’ninkinden daha düşüktür ve potansiyel olarak daha geniş bir model yelpazesini kapsamaktadır. ABD’nin yaklaşımı yapay zekanın ikili kullanım risklerine ve potansiyellerine odaklanıyor, ancak AB Yasası sistemik risklere daha geniş bir bakış açısı getiriyor ve geniş ölçekte ayrımcılığı, büyük kazaları ve insan haklarına yönelik olumsuz sonuçları içeriyor. Her iki çerçeve de dokümantasyon, model değerlendirme ve siber güvenlik gereksinimlerine yönelik ihtiyaçlar konusunda uyumludur. Yapay Zeka Yasası’nın küresel etkisi, Avrupa pazarının önemi nedeniyle GDPR’ninkine paralel olabilir. Tersine, ABD düzeni öncelikle dolaylı küresel etkiyle iç politikayı belirliyor. Her iki kuruluş da diğer G7 ülkeleriyle birlikte bağlayıcı olmayan bir yapay zeka davranış kuralları oluşturmayı taahhüt etti ve bu da yapay zeka politikası konusunda artan işbirliğinin sinyalini verdi.
Açık kaynaklı yapay zeka istisnaları: Orrick’in yapay zeka ekibindeki avukatlar Julia Apostle, Sarah Schaedler, Shaya Afshar ve Daniel Healow, ücretsiz ve açık kaynak lisansları altında yayınlanan yapay zeka sistemleri için Yapay Zeka Yasası’ndaki istisnalara ilişkin bir genel bakış yazdı; başlığı; yüksek riskli veya bireylerle doğrudan etkileşime giren kişiler. Genel amaçlı yapay zeka modelleri, sağlayıcıların modelin parametrelerine erişim, kullanım, değişiklik ve dağıtıma izin vermesi durumunda sınırlı bir açık kaynak istisnasına hak kazanabilir. Ancak sistemik risk oluşturmamaları gerekir. İstisnanın faydaları arasında şeffaflık yükümlülüklerinden muafiyet de yer alıyor ancak sağlayıcıların ayrıntılı eğitim içeriği özetlerini paylaşmaları ve AB telif hakkı yasasına uymaları gerekiyor. Yazarlar, açık kaynak yapay zeka için bir strateji tasarlarken geliştiricilerin, sağlayıcıların ve dağıtımcıların, kullanılan yapay zeka teknolojilerinin türlerini, açık kaynak lisansları kapsamında lisanslamanın artılarını ve eksilerini ve açık kaynak kullanılırken gerekli önlemleri dikkate alması gerektiğini söylüyor. Yapay zeka teknolojileri.
Biyometriye bakış: Baker Donelson’un Hukuk Uygulaması Danışmanı David J. Oberly, Yapay Zeka Yasasının biyometrik sistemler üzerinde katı düzenlemeler getirdiğini, belirli kullanım durumlarını yasakladığını ve erişimini AB dışındaki şirketlere kadar sınır dışı olarak genişlettiğini yazdı . Oberly, kimlik belirleme, doğrulama ve kategorizasyon gibi biyometrik teknolojilerin doğrudan düzenlendiğini belirtirken, hassas kişisel niteliklerle ilgili sistemler, işyerleri ve okullarda duygu tanıma, yüz tanıma veritabanlarını genişleten yapay zeka sistemleri ve okullarda gerçek zamanlı tanımlama konusunda yasaklar bulunduğunu belirtiyor. halka açık yerler. Yüksek risk ve şeffaflık sınıflandırmaları, veri sahipleri için görünür bildirimler ve sentetik içerik için çıktıların işaretlenmesi dahil olmak üzere ek yükümlülükler getirmektedir. Kendisi, biyometrik sistemlerde yer alan şirketlere, yazısında yer alan çeşitli önerilerle birlikte Kanuna uyum yönünde proaktif bir şekilde çalışmalarını tavsiye ediyor.
Yapay Zeka Ofisi
Yapay Zeka Ofisi Vizyonu: Philipp Hacker, Sebastian Hallensleben ve Kai Zenner, Euractiv’de dünyanın ilk kapsamlı yapay zeka mevzuatının uygulanmasının güçlü bir liderlik ve yenilikçi bir yapı gerektirdiğini savunan bir köşe yazısı yayınladılar . Hacker, Hallensleben ve Zenner, sıkı teslim tarihleri ve sınırlı bütçeler gibi birçok zorlukla karşı karşıya olan Yapay Zeka Ofisi’nin misyonunu etkili bir şekilde yerine getirebilmesi için net ve stratejik bir yapıyla tasarlanması gerektiğini belirtiyor. Beş uzman birimden oluşan bir yapı öneriyorlar: Güven ve Güvenlik, İnovasyon Mükemmelliği, Uluslararası İşbirliği, Araştırma ve Öngörü ve Teknik Destek. Ayrıca, AB kurumları dışından olanlar da dahil olmak üzere üst düzey yeteneklerin cezbedilmesi ve elde tutulması çok önemlidir ve cazip çalışma ortamları ve düzenlemeleri gerektirmektedir. Liderlik, kurumsal bilgiyi dış danışmanlar tarafından desteklenen yapay zeka uzmanlığıyla birleştirmelidir. Operasyonel değerler, başarılı start-up’larda olduğu gibi çevikliğe, minimum bürokrasiye ve özerkliğe öncelik vermelidir. Ayrıca, yenilikçi satın alma yöntemleriyle en son donanım ve yazılımı güvence altına almanın önemini de vurguluyorlar. Son olarak yazarlar, AB vatandaşları, sivil toplum, akademi ve KOBİ’ler de dahil olmak üzere çeşitli paydaşlarla düzenli etkileşimi teşvik etmek için şeffaflık ve erişilebilirlik çağrısında bulunuyor.
Sağlam yönetişim fikirleri: Akademisyenler Claudio Novelli, Philipp Hacker, Jessica Morley, Jarle Trondal ve Luciano Floridi, Yapay Zeka Yasasının yönetişimine yönelik çeşitli iyileştirmeler öneriyor . İlk olarak, Yapay Zeka Ofisinin yapısı ve uzman seçim süreci için daha net yönergeler öneriyorlar. İkinci olarak, müzakere sürecini güçlendirmek ve tekrarlardan kaçınmak için Forum ve Panelin tek bir organda birleştirilmesini savunuyorlar. Üçüncüsü, çatışan çıkarları yönetmek için bir Yapay Zeka Koordinasyon Merkezi aracılığıyla AB kurumları arasında koordinasyon ihtiyacını vurguluyorlar. Dördüncüsü, AI Kurulunun tutarlı düzenlemeler sağlamak ve kötüye kullanımı önlemek için ulusal kararları ele alması gerekliliğini vurguluyorlar. Son olarak, Üye Devletlerin yeterlilik merkezleriyle işbirliği yoluyla yapay zeka uygulamalarını öğrenmek ve geliştirmek için Yapay Zeka Ofisi bünyesinde bir birim kurulmasını tavsiye ediyorlar.