Algoritmalar ayrımcılık yaptığında veya kutuplaştırdığında, arızalı değildir.
Faysal Hoque / 13.04/2025
Önemli noktalar
Yapay zeka sistemleri değerlerimizi, önyargılarımızı ve çelişkilerimizi yansıtır.Yapay zekadaki önyargılar kodun kendisinden değil, geçmiş verilerden kaynaklanır.Tıkladığımız, paylaştığımız ve görmezden geldiğimiz şeyler makinelere gerçekte kim olduğumuzu öğretiyor.
Yapay zeka hakkındaki en son kamuoyu tartışması, onu toplumu iyi veya kötü yönde yeniden şekillendirecek bir güç olarak çerçeveliyor. Yapay zeka, hayatımıza giren ve yaşama ve çalışma şeklimizi değiştirmekle tehdit eden, dışsal bir şey, insan olmayan bir varlık olarak sunuluyor. Yapay zekanın günlük varoluşumuz üzerindeki etkisini anlamak önemlidir. Ancak bu konuşmada eksik olan önemli bir parça var. Bu teknolojiyi düşündüğümüzde, bizi nasıl değiştireceğini sormak yeterli değil. Ayrıca, yapay zekayı nasıl şekillendirdiğimizi ve bu sürecin bize kendimiz hakkında ne söyleyebileceğini de anlamamız gerekiyor.
Yarattığımız her AI sistemi, değerlerimizi, önceliklerimizi ve varsayımlarımızı şaşırtıcı bir netlikle yansıtan bir ayna işlevi görür. Yüz tanıma teknolojisi daha koyu ten tonlarını tanımlamakta zorlandığında, bu bir arıza değildir, eğitildiği verilerde gömülü varsayımların ve bakış açılarının bir yansımasıdır. İçerik öneri motorları öfkeyi ve bölünmeyi artırdığında, bu onların bozuk olduğu anlamına gelmez; insanların gerçekte nasıl davrandıklarıyla etkileşim için başarılı bir şekilde optimize ediliyorlar. Birçok durumda, AI’nın “tehditleri” ve “tehlikeleri” teknolojinin kendisiyle hiçbir ilgisi yoktur. Bunun yerine, endişelenmemiz gereken şeyler kaçınılmaz olarak insani olan niteliklerin yansımalarıdır.
Kodlanmış Yansımalar
İşe alım algoritmalarını düşünün. 2018’de Amazon, kadın adaylara karşı önyargılı olduğunu keşfettikten sonra yapay zeka destekli bir işe alım aracını iptal etti. Yapay zeka ayrımcılık yapmak üzere programlanmamıştı, ancak erkekleri kayıran geçmiş işe alım verileriyle eğitildi ve bu kalıpları taklit etmeyi öğrendi. Benzer şekilde, UC Berkeley’den yapılan araştırma, ipotek onay algoritmalarının genellikle Siyah ve Hispanik başvuru sahiplerine daha az elverişli koşullar sunduğunu ve kredi vermede uzun süredir devam eden eşitsizlikleri pekiştirdiğini buldu.
Yapay zeka sistemlerinin kolluk kuvvetleri, sağlık hizmetleri ve eğitimde kullanımı benzer kalıpları ortaya koymaktadır. Tahmin edici polislik araçları, tarihsel suç verileri konusunda eğitildikleri için belirli topluluklara odaklanma eğilimindedir . Sağlık hizmetlerindeki algoritmaların belirli demografik gruplara ait hastalara yanlış teşhis koyma olasılığı daha yüksek olabilir . Okullardaki otomatik notlandırma sistemlerinin, bazen işin kalitesi aynı olduğunda, daha zengin ekonomik geçmişe sahip öğrencileri diğerlerine tercih ettiği gösterilmiştir . Tüm bu durumlarda, yapay zeka yeni önyargılar yaratmıyor, mevcut olanları yansıtıyor.
Bu yansıtma etkisi, öz inceleme için önemli bir fırsat sunar. Bu sorunları daha görünür ve daha acil hale getirerek, AI bizi algoritmik önyargıya neden olan veri kaynaklarını kabul etmeye ve ele almaya zorlar. Bu zorluk giderek daha kişisel hale gelecektir. Çevre koşullarına uyum sağlayacak yeni nesil AI destekli robotların duyurulmasıyla , bireysel sahiplerin önyargılarının bu sistemlerin nasıl davranacağını şekillendirmesini bekleyebiliriz.
Yapay zekaya yönelik mevcut yaklaşımımız çelişkilerle dolu ve yapay zeka bu çelişkileri bize geri yansıtıyor. Yapay zekayı işletmelerimizin verimliliğini artırmak için bir araç olarak değerlendiriyoruz ancak yine de insan işlerini elinden alacağından endişeleniyoruz. Yapay zeka destekli gözetim konusunda endişelerimizi dile getirirken, küçük kolaylıklar karşılığında kişisel verilerimizi gönüllü olarak veriyoruz ( yetişkinlerin %61’i dijital hizmetler karşılığında gizliliğimizi feda ettiğimizi kabul ediyor). Ve yanlış bilgi giderek artan bir endişe kaynağı olsa da, etkileşim odaklı yapay zeka modelleri doğruluktan çok viral içeriği tercih etmeye devam ediyor.
Her Eylem Bir İz Bırakır
Yapay zeka evrimleşmeye devam ederken, bireyler olarak toplumdaki rolünü nasıl şekillendirmek istediğimizi kendimize sormalıyız. Bu sadece algoritmaları iyileştirmekle ilgili değil, aynı zamanda yapay zekanın sorumlu bir şekilde geliştirilip dağıtılmasını sağlamakla ilgilidir.
Bazı kuruluşlar bu yönde adımlar atmaya başladı bile. Yapay zeka modellerini yalnızca ekonomik verimliliği artırma amacıyla geliştirmek yerine, yapay zeka modellerinin davranışını şekillendiren verileri, politikaları ve varsayımları değerlendiriyorlar. Bu, beklenmeyen sonuçları hafifletmeye yardımcı olabilir .
Yine de, kuruluşların ve kurumların tüm işi yapmasını bekleyemeyiz. Yapay zeka insan verileriyle eğitildiği sürece, insan davranışını yansıtacaktır. Bu, dünyada bıraktığımız kendimize ait izler hakkında dikkatlice düşünmemiz gerektiği anlamına gelir. Gizliliğe değer verdiğimi iddia edebilirim, ancak bir web sitesine erişmek için bundan bir kalp atışı kadar çabuk vazgeçersem, algoritmalar gerçekten ne istediğim ve benim için neyin iyi olduğu konusunda çok farklı bir değerlendirme yapabilir. Anlamlı insan bağlantıları istediğimi iddia ediyorsam, ancak sosyal medyada daha fazla zaman geçirip arkadaşlarımla fiziksel olarak daha az zaman geçiriyorsam, dolaylı olarak yapay zeka modellerine insanlığın gerçek doğası hakkında eğitim veriyorum. Yapay zeka yalnızca sistemsel çelişkileri ortaya çıkarmakla kalmaz, aynı zamanda bireylerin iç çatışmalarını da vurgular. Ve yapay zeka daha güçlü hale geldikçe, ikisinin birbirinden ayrılmasına izin vermek yerine, eylemlerimizin kaydına ilkelerimizi okumaya giderek daha fazla özen göstermeliyiz.
Yapay zekayı hayatımıza entegre etmeye devam ederken, bu sistemlerin yalnızca davranışlarımızı tahmin etmediğini; karakterimizi yansıttığını kabul etmeliyiz. Bu yansımayı düşünmek, daha iyi, daha ilkeli seçimler yapmamızı sağlar, ancak yalnızca yakından bakmaya ve gördüklerimiz için sorumluluk almaya istekliysek.
https://www.psychologytoday.com/us/blog/code-conscience/202504/ai-isnt-the-problem-we-are