Yüksek Riskli Yapay Zeka

Yapay zeka sistemlerini riskli veya risksiz olarak sınıflandırma ve düzenlemeye yönelik mevcut girişimler eksik kalmış ve insanlar ile makineler arasındaki etkileşimin temel yönleri göz ardı edilmiştir

 

Luisa Jaravsky / 3 Aralık 2025

Bir yapay zeka sistemi veya modelinin bireyler, gruplar veya toplumun tamamı için risk oluşturup oluşturmadığını nasıl değerlendiririz? Hangi tür yapay zeka modelleri ve sistemleri daha sıkı yasal inceleme ve denetime tabi tutulmalıdır? Hangileri “yüksek riskli yapay zeka” olarak kabul edilmelidir?

Ulusal bir yapay zeka stratejisi oluşturmayı hedefleyen herhangi bir ülke veya bölge, bu riskle ilgili sorular arasında gezinmek, bunları nasıl ele alacağına karar vermek ve kararını kamuoyuna açık veya örtük bir şekilde gerekçelendirmek zorunda kalacaktır.

Bir ülke ulusal düzeyde kapsamlı bir yapay zeka yasası çıkarmamaya  (şu anda Amerika Birleşik Devletleri’nde olduğu gibi) veya herhangi bir yapay zeka sistemi veya modeline denetim veya gözetim uygulamamaya karar verse bile, yapay zeka riski konusu göz ardı edilemez. Neden?

Zira yasal olarak ulaşılabilir olan ve risk taşıyan bir ürün veya hizmet, zarara yol açabilir ve daha sonra düzeltilmesi zor olabilecek sistemik bireysel ve toplumsal sorunlara, hatta potansiyel olarak felaket niteliğinde olaylara neden olabilir.

Yapay zekada risk değerlendirmesi özellikle önemlidir çünkü “yapay zeka” pek çok ürün, hizmet ve uygulamalı teknolojiyi kapsayan bir şemsiye terimdir.

Genel amaçlı bir sohbet robotu, otonom bir araba, bir sesli asistan, bir ev robotu, bir güvenlik kamerası, bir oyuncak ve bir sosyal medya öneri sistemi yapay zeka kategorisine girebilir.

Ancak bu ürün ve hizmetler farklıdır , farklı insanları etkiler , farklı bağlamlarda kullanılır ve açıkça farklı risk profilleri sunar. Aynı “Yapay Zeka” kategorisine girseler bile, muhtemelen farklı şekilde düzenlenmeleri gerekir .

Bu, yapay zeka düzenlemesinin zorluklarından biridir; çünkü neredeyse hiçbir ortak noktası olmayan ürünler bile aynı yasal çerçeve altında olacak ve yalnızca bir yapay zeka bileşenine sahip oldukları veya yasanın yapay zeka tanımına uydukları için aynı kurallara uymak zorunda kalabilirler.

Yapay zekadaki riski ve yüksek riskli bir yapay zeka sistemi veya modelinin ne olduğunu anlamak da bu yüzden çok önemlidir. Bu, kanun koyucuların, politika yapıcıların, yetkililerin, uygulayıcıların ve halkın yapay zekayı ve bunun kendilerini nasıl etkileyebileceğini daha iyi anlamalarına yardımcı olacaktır.

Ancak, yüksek risklere rağmen, risk şu anda yeterince anlaşılmamış ve yeterince araştırılmamış bir yasal alandır ve çoğu kişi (düzenleyici otoriteler dahil) bunu henüz fark etmemiş gibi görünüyor.

Yapay zeka sistemlerini riskli veya risksiz olarak sınıflandırma ve düzenlemeye yönelik mevcut girişimler eksik ve katı olmuş ve insanlar ile makineler arasındaki etkileşimin temel yönlerini göz ardı etmiştir.

Yapay zeka düzenlemelerinde sıklıkla ‘katı’ veya küresel bir referans olarak görülen AB Yapay Zeka Yasası bile, son üç yılda ortaya çıkan ve ölüm de dahil olmak üzere çok sayıda zarar vakasına yol açan kritik yapay zeka ile ilgili riskleri göz ardı ediyor.

Ve işler burada karmaşıklaşıyor:…

 

 

https://www.luizasnewsletter.com/p/high-risk-ai

 

Scroll to Top