8 Mart Dünya Kadınlar Günü: YZ VE KADINLAR.

AB Yapay Zeka Yasası cinsiyet eşitliğini nasıl ele alıyor?

Yapay zeka sistemlerindeki yapısal önyargıların kadınlar üzerindeki etkileri nelerdir?

Daha kapsayıcı bir yapay zeka denetimi için hangi öneriler sunuluyor?

Bu makale, Avrupa Birliği’nin Yapay Zeka Yasası’nın (bundan böyle “Yapay Zeka Yasası” olarak anılacaktır) feminist bir analizini sunar ve yapay zeka sistemlerinde cinsiyet eşitsizliklerini ve yapısal güç dengesizliklerini ele alma kapasitesini değerlendirir. Feminist teorilerden yararlanan makale, AI Yasası’nın marjinal grupları, özellikle renkli kadınları ve marjinal topluluklardan kadınları orantısız bir şekilde etkileyebilecek cinsiyet önyargılarını azaltmadaki sınırlamalarını değerlendiriyor. Rapor, aile içi şiddet vakalarında işe alım ve istihdam, sağlık hizmetleri, sınır yönetimi kontrolü ve öngörücü polislik alanlarındaki vaka çalışmaları aracılığıyla, yapay zeka uygulamalarının cinsiyet eşitsizliklerini nasıl güçlendirebileceğini vurgulamaktadır. Yapay Zeka Yasası içindeki özel hükümlerin ayrıntılı bir incelemesi, yapay zeka yönetiminde sistemik ayrımcılık ve önyargının ele alınmasında kritik boşlukları ortaya koymaktadır. Daha adil bir yapay zeka ortamını teşvik etmek için rapor, disiplinlerarasılığa, bireysel yaklaşımlar yerine kolektifliğe ve feminist de dahil olmak üzere insan haklarına yönelik güçlü gözetim mekanizmalarına öncelik veren kesişimsel, feminist bilgilendirilmiş revizyonların entegre edilmesini önermektedir. Önerilen öneriler, marjinal toplulukları daha iyi korumak ve tüm bireylerin çeşitli deneyimlerini yansıtan düzenleyici bir yaklaşım sağlamak için Yapay Zeka Yasası’nın çerçevesini güçlendirmeye odaklanmaktadır.

Arka Plan: Kullanılan yapay zeka sistemleri ve bunların cinsiyet eşitliği ve ayrımcılık yapmama yapay zeka teknolojileri üzerindeki etkileri, kapsamlı gözetim altında tasarlanmadığı takdirde, mevcut toplumsal önyargıları istemeden sürdürerek kadınlara ve marjinal topluluklara karşı ayrımcı etkilere yol açabilir. Aşağıdaki vaka çalışmaları, sistemik önyargı ve ayrımcılık potansiyelini azaltmak için yapay zeka geliştirme ve dağıtım uygulamalarının kapsayıcılığa, cinsiyete duyarlılığa ve şeffaflığa öncelik vermesini sağlayan düzenleyici önlemlere yönelik bu acil ihtiyacın altını çizmektedir. Halihazırda farklı alanlarda kullanılan bir dizi yapay zeka sistemi var. İstihdamda, Amazon’un işe alımları kolaylaştırmayı amaçlayan yapay zeka işe alım aracı (Dastin, 2018), algoritmaları ağırlıklı olarak erkek özgeçmişler üzerinde eğitildiği için istemeden erkek adayları tercih etti, bu da cinsiyete göre önyargılı seçim kriterlerine yol açtı ve sonunda durdurulmasını gerektirdi. Ayrımcı bir yapay zeka sisteminin daha yeni bir örneği, İtalya’daki Deliveroo örneğidir (Zuiderveen Borgesius, 2018). Mahkeme, ayrımcılığı gerekçe göstererek Deliveroo’nun binici sıralaması algoritmasına karşı karar verdi. Algoritma, bir sürücünün “güvenilirliğini” belirlemek için kullanıldı. Sürücü önceden planlanmış bir vardiyayı en az 24 saat önceden iptal edemezse, algoritma sürücüyü düşürmeye başlar ve gelecekteki vardiyaları kazanma yeteneklerini etkiler. Mahkeme, algoritmanın yerel iş yasalarını ihlal ettiğini tespit etti, çünkü hastalık, acil durum veya korunan grev haklarını kullanma gibi emeği alıkoymak için yasal olarak korunan nedenler ile mevcut olmamanın korunmasız nedenleri arasında ayrım yapmadı. Bu, şiddetli adet ağrısı yaşayan bir kadın durumunda, semptomlarının başlangıcını veya şiddetini tahmin etmek her zaman mümkün olmadığı için vardiyasını 24 saat önceden iptal edemeyeceği anlamına gelir. Sağlık hizmetlerinde, erken doğum ve diğer komplikasyonların tahmini için obstetrikte (Belciug ve Iliescu, 2023) veya jinekolojik kanser tespitinde – genellikle ikili cinsiyet çerçevelerine dayanan elektronik sağlık kayıtlarına dayanarak yürütülen, transseksüel ve ikili olmayan hastaları doğru bir şekilde barındıramayan (Taylor ve Bryson, 2016) – yanlış sınıflandırma, yanlışlıklara ve yetersiz bakıma neden olabilir. Sınır yönetimi kontrolünde, yapay zeka odaklı sınır güvenliği için bir AB girişimi olan iBorderCtrl pilot projesi, yolcu güvenilirliğini değerlendirmek için yüz tanıma ve yalan algılama teknolojilerini kullandı. Bununla birlikte, bu sistem, gezginlere ayrımcı muameleye yol açabilecek yapay zekadaki potansiyel cinsiyet ve ırksal önyargılar hakkında endişeleri artırdı (Rosario, 2023). Özellikle, algoritmalar kadınların yüz ifadelerini yanlış yorumlayabilir, kadınları daha duygusal veya daha az güvenilir olarak algılayan toplumsal önyargıları yansıtabilir ve böylece kadın gezginler arasında yanlış pozitif tespit olasılığını artırabilir. Proje, sınır güvenliği içindeki yapay zeka dağıtımında titiz önyargılı azaltma, şeffaflık ve hesap verebilirlik ihtiyacının altını çizdi, çünkü bu sorunların ele alınmaması sınırdaki adalet, kapsayıcılık ve insan hakları korumalarını tehlikeye atabilir. İspanya İçişleri Bakanlığı tarafından kullanılan cinsiyete dayalı şiddet risklerini değerlendirmek ve yönetmek için bir sistemin uygulanmasını içeren VioGen davası, tahmine dayalı polislikte yapay zeka odaklı karar verme araçlarında cinsiyet önyargısıyla ilgili önemli endişeleri vurgulamaktadır (Ruibal Pérez, 2019). Aile içi şiddete verilen tepkileri iyileştirme ve koruma önlemleri alma amacına rağmen, sistem, özellikle mağdurların ve suçluların değerlendirilmesinde mevcut cinsiyet klişelerini ve önyargılarını yanlışlıkla pekiştiren algoritmalara güvendiği için eleştirildi1. Risk değerlendirme kriterleri, özellikle kadınlar olmak üzere mağdurlar/kurtulanlar için yanlış sınıflandırmaya ve potansiyel olarak zararlı sonuçlara yol açan bireysel vakaların karmaşıklıklarını yeterince hesaba katmaz. Cinsiyete dayalı şiddet ölçüsünde, üretken yapay zeka araçlarının, özellikle derin sahtecilikler oluşturmada hızlı ilerlemesi, bu araçlar, yapay zeka tarafından üretilen cinsiyete dayalı şiddetin modern bir biçimini oluşturan, bireylerin gerçekçi, rıza dışı ve cinselleştirilmiş tasvirlerinin üretilmesini sağladığından yasal endişeleri gündeme getirmiştir (Karagianni ve Doh, 2024). Tüm bu vakalar, politika yapıcıların hem kamu hem de özel sektördeki yapay zeka uygulamalarının – örneğin işe alım ve istihdam, sağlık, sınır yönetimi kontrolü ve öngörücü polislik alanlarında – önyargıyı sürdürme riskini azaltmak ve eşitlikçin eşit korumayı teşvik etmek için cinsiyet duyarlılığı, şeffaflık ve hesaplanabilirliğe güçlü bir vurgu yapılarak tasarlanmasını sağlama acil ihtiyacının altını çiziyor.

Scroll to Top