Avrupa Konseyi’nin yeni bir aracı , Yapay Zeka (YZ) sistemleri için risk ve etki değerlendirmeleri yapmak üzere rehberlik ve yapılandırılmış bir yaklaşım sağlar .
HUDERIA Metodolojisi, insan haklarını, demokrasiyi ve hukukun üstünlüğünü korumak ve teşvik etmek için özel olarak tasarlanmıştır . AI sistemlerinin yaşam döngüsü boyunca insan hakları, demokrasi ve hukukun üstünlüğüne yönelik riskleri ve etkileri belirlemeye ve ele almaya yardımcı olmak için hem kamu hem de özel aktörler tarafından kullanılabilir.
Metodoloji, belirlenen riskleri en aza indirmek veya ortadan kaldırmak için bir risk azaltma planı oluşturulmasını ve halkın olası zararlardan korunmasını sağlar. Örneğin, işe alımda kullanılan bir AI sisteminin belirli demografik gruplara karşı önyargılı olduğu bulunursa, azaltma planı algoritmayı ayarlamayı veya insan denetimini uygulamayı içerebilir.
Metodoloji, bağlam ve teknoloji geliştikçe AI sisteminin güvenli ve etik bir şekilde çalışmaya devam etmesini sağlamak için düzenli yeniden değerlendirmeler gerektirir. Bu yaklaşım, kamuoyunun AI sisteminin yaşam döngüsü boyunca ortaya çıkan risklerden korunmasını sağlar.
HUDERIA Metodolojisi, Avrupa Konseyi Yapay Zeka Komitesi ( CAI ) tarafından 26-28 Kasım tarihlerinde Strazburg’da düzenlenen 12. genel kurul toplantısında kabul edildi . 2025 yılında, esnek araçlar ve ölçeklenebilir öneriler de dahil olmak üzere destekleyici materyaller ve kaynaklar sağlayacak olan HUDERIA Modeli ile tamamlanacaktır.
Alan Turing Enstitüsü araştırmacıları tarafından geliştirilen ‘Yapay Zeka Sistemleri için İnsan Hakları, Demokrasi ve Hukukun Üstünlüğü Risk ve Etki Değerlendirmesi (HUDERIA) adlı çerçevenin ana hatları şöyledir:
HUDERIA metodolojisi, yapay zeka sistemleri için risk ve etki değerlendirmeleri gerçekleştirmek üzere kanıta dayalı ve yapılandırılmış bir yaklaşım sağlayan çok adımlı bir yönetişim sürecidir.
Hem kamu hem de özel kuruluşların insan hakları, demokrasi ve hukukun üstünlüğü üzerindeki olumsuz etkileri belirlemelerine ve bunları azaltmalarına yardımcı olmak için tasarlanmıştır.
HUDERIA, yapay zekanın neden olabileceği potansiyel zararlardan kamuoyunu korumaya yardımcı olan yapay zeka tasarımı, geliştirme ve dağıtımının yönetimine yönelik öngörülü bir yaklaşım sunmaktadır.
Örneğin, işe alımda kullanılan bir yapay zeka sisteminin belirli demografik gruplara karşı önemli önyargı riskleri taşıdığı tespit edilirse, azaltma planı eğitim verilerinin yeniden örneklenmesini veya algoritmanın ayrımcı vekilleri ele alacak şekilde ayarlanmasını ve ardından yeterli önyargı azaltmasını sağlamak için sistemin test edilmesini içerebilir.
HUDERIA çerçevesi dört unsurdan oluşmaktadır; bağlam temelli risk analizi, paydaş katılım süreci, risk ve etki değerlendirmesi ve azaltma planı.
Çerçevenin kullanılması, bağlam ve teknoloji geliştikçe yapay zeka sistemlerinin güvenli ve etik bir şekilde çalışmaya devam etmesini sağlamak için düzenli yeniden değerlendirmeler yapılmasını da sağlar ve böylece kamuoyunun sistemin yaşam döngüsü boyunca ortaya çıkan risklerden korunmasını sağlar.
Turing’in Etik ve Sorumlu Yenilik ekibindeki araştırmacılar, 2020’den bu yana Avrupa Konseyi ve Üye ve Gözlemci Devletlerle yakın işbirliği içinde HUDERIA’yı geliştiriyor.
Etik ve Sorumlu Yenilik Araştırmaları Direktörü David Leslie liderliğindeki Turing katkıları şunları içermektedir:
- İnsan Hakları, Demokrasi ve Hukukun Üstünlüğü Yayıncılığı : 2021’de Bir Giriş
- İnsan Hakları, Demokrasi ve Hukukun Üstünlüğükonusunda gelecekteki bir anlaşmayı desteklemek için bir etki değerlendirme aracının nasıl görünebileceğine dair bir çalışma yürütmek
- Yapay Zeka Sistemleri İçin Güvence Çerçevesi:HUDERIA’nın temelini oluşturan bir öneri.
- Yapay Zeka ve İnsan Hakları, Demokrasi ve Hukukun Üstünlüğü Çerçeve Sözleşmesi’ninve HUDERIA metodolojisinin hazırlanmasına destek olmak .
- Avrupa Konseyi Üye ve Gözlemci Devletleri ile HUDERIA’yı pilot uygulama konusunda türünün ilk örneği olan bir girişimde bulunuluyor.
HUDERIA metodolojisi, geçen hafta Strazburg’da düzenlenen 12. genel kurul toplantısında CAI tarafından kabul edildi. Genel kurul ayrıca proje için sonraki adımları belirledi ve 2025-2026’da daha ayrıntılı bir modelin geliştirilip pilot uygulamasının yapılacağı konusunda anlaştı.
Profesör David Leslie şunları söyledi: “Bu, hem Avrupa Konseyi hem de Alan Turing Enstitüsü için tarihi bir başarıdır. Küresel AI yönetim rejimlerinin geleceğinin büyük bir kısmının henüz kararlaştırılmadığı kritik bir kavşakta, uluslararası AI politikası ve hukukuna yönelik hak temelli yaklaşımların ilerlemesinde kuantum sıçramasını temsil ediyor.
“Bu önemli çabayı desteklemede rol oynamaktan onur duyuyoruz ve küresel ölçekte iyi uygulama kaynağı ve bilgi kütüphanesi sunan HUDERIA’nın bir sonraki yinelemesini desteklemeyi sabırsızlıkla bekliyoruz.”
Not: HUDERIA Metodolijisi için aşağıdaki linkleri tıklamak gereklidir.
https://rm.coe.int/cai-2024-16rev2-methodology-for-the-risk-and-impact-assessment-of-arti/1680b2a09f