
Alondra Nelson / 11 Eylül 2025
ELS: Ethical, Legal ve Social kelimelerinin baş harfleridir.
Amerika Birleşik Devletleri’nde 2025 yazı, yapay zekanın (YZ) acımasız yazı olarak hatırlanacak; YZ’nin dikkate alınmayan riskleri ve tehlikelerinin inkâr edilemez bir şekilde ortaya çıktığı bir dönem.
Son aylar, YZ’nin kontrolsüz kullanımının risklerini görünür hale getirdi: 16 yaşındaki Adam Raine’in ebeveynleri, ChatGPT’nin oğullarının intiharına , ona yöntemler konusunda tavsiyelerde bulunarak ve intihar notu yazmayı teklif ederek katkıda bulunduğunu iddia ederek OpenAI’ye karşı bilinen ilk haksız ölüm davasını açtı. Bir psikiyatristin araştırması , YZ terapisi sohbet robotlarının sorunlu gençleri ebeveynlerinden “kurtulmaya” teşvik ettiğini ve lisanslı terapist olduklarını yanlış iddia ederek cinsel önerilerde bulunduğunu ortaya koydu. ChatGPT’nin diyetine sodyum bromür ekleme tavsiyesine uyan bir adamın hastaneye kaldırıldığına dair haberler ortaya çıktı . Trevis Williams’ın, bariz fiziksel farklılıklarına ve suç mahallinden kilometrelerce uzakta olduğunu kanıtlayan coğrafi konum verilerine rağmen yüz tanıma teknolojisinin onu yanlış tanımlamasının ardından 2 günden fazla haksız yere hapis yattığı bildirildi.
Yapay zeka arızalarının sıklığına dair kapsamlı veriler (mutlak değerler veya başarılı uygulamalara kıyasla) eksik olsa da, mevcut kanıtlar bu tür olayların yalnızca münferit olaylar olmadığını açıkça ortaya koymaktadır . Bu olaylar, bu teknolojilerin yeterli denetim olmadan kullanılmasından kaynaklanan öngörülebilir zararların bir örüntüsünü yansıtmaktadır. Raine ailesinin açtığı davada da belirtildiği gibi , “Bu trajedi bir aksaklık veya öngörülemeyen bir uç durum değildi; kasıtlı tasarım tercihlerinin öngörülebilir bir sonucuydu.”
Bu vakalar, yapay zekâ zararlarının yalnızca teknik hatalardan değil, aynı zamanda algoritmaların belirli kurumsal ortamlarda kullanıcılarla nasıl etkileşim kurduğunu tam olarak hesaba katmayan tasarım ve dağıtım tercihlerinden de kaynaklandığını gösteriyor. Örneğin, adamın hastaneye kaldırılması, hem duyarlı hem de sağlık hizmetlerinin geleceği olarak pazarlanan sistemler gibi belirgin yapay zekâ abartılarının arka planında okunmalıdır ve bu da yersiz güveni teşvik eder. Bu arada, haksız tutuklama, polis prosedürlerindeki ve görgü tanığı ifadelerindeki mevcut kusurları daha da kötüleştirdi. Bu vakalar, kusurlu kodu da içeren ancak daha da ileri giden bir sorunu vurguluyor: Şirketler, zararları öngörmeye veya önlemeye daha az yatırım yaparken, yeni yapay zekâ yeteneklerini piyasaya sürmek için yarışıyor. Bunlar sosyoteknik hatalardır ve bunları anlamak için disiplinler arası bir araştırma gerekir.
Bu tür zararlar öngörülebilir ve sistemikse, tepkiler de aynı derecede sistematik olmalıdır. Ancak mevcut tepkiler yetersiz kalmaya devam ediyor. Hesap verebilirlik ve güvenlik açısından kritik öneme sahip olsalar da, yasama çalışmaları ve davalar genellikle yapay zekanın zararlarını proaktif olarak değil, reaktif olarak hedef alıyor. Aynı zamanda, önerilen bazı kurumsal tepkiler de hedeften saptı . Üretken yapay zeka ilk kez kamuoyunun dikkatini çektiğinde, “Yapay Zeka için Uluslararası Atom Enerjisi Ajansı (UAEA) ,” ” Yapay Zeka Güvenliği için Manhattan Projesi ” ve ” Yapay Zeka için Gıda ve İlaç Dairesi (FDA) ” gibi yönetişim önerileri hızla çoğaldı.
Ancak bilimin kendisinden alınan, daha bütünsel bir yaklaşım sunan başka bir model daha var. 1990 yılında İnsan Genomu Projesi’nin liderliği, yıllık araştırma bütçesinin küçük ancak belirli bir kısmını (%3 ila %5) genomik çalışmayla paralel olarak yürütülen etik , yasal ve sosyal soruşturmaya ayıran Etik, Yasal ve Sosyal Sonuçlar (ELSI- Ethical, Legal, and Social Implications1) programını kurdu . FDA veya IAEA gibi merkezi denetim modellerinin aksine, ELSI programı federal olarak finanse edildi ancak üniversiteler, hukuk fakülteleri, sivil toplum örgütleri ve diğer kurumlardaki bireysel araştırma projeleri ağı aracılığıyla yürütüldü. Denetimi sonradan düzenlemek veya risk tanımlamasını tek bir kuruma atamak yerine, ELSI programı genetik biliminin süreçlerine öngörülü araştırmayı yerleştirdi . Genetik gizlilik, veri yönetimi ve ayrımcılık yapmamaktan erişim, temsil ve kamu anlayışına kadar uzanan konularda çok disiplinli çalışmaları finanse etti ve bu endişeleri geliştikçe genomikle bütünleştirdi.
Zamanla, bu yerleşik yapı somut sonuçlarla karşılığını verdi. ELSI araştırmalarından elde edilen bilgiler, Genetik Bilgi Ayrımcılık Karşıtı Yasası (GINA) gibi mevzuatları etkiledi, genetik testler için klinik standartlara rehberlik etti ve genomik konusunda kamuoyunun anlayışını genişleten eğitim araçları geliştirdi. Aynı zamanda bir ortak tasarım anlayışı da geliştirdi: Sosyal bilimciler, tarihçiler, filozoflar, hukuk uzmanları ve toplum katılımcıları, genomik bilim insanlarıyla birlikte yerleşik ortaklar olarak çalıştılar; her zaman eşit olmasalar da araştırma yörüngelerini şekillendirdiler. ELSI araştırma programları, sosyal kaygıları genomiğin kenarlarından merkezine taşıdı; ortaya çıkan riskleri haritalamaktan, kanıta dayalı politika ve kamuoyu tartışmalarına bilgi sağlamaya kadar.
En önemlisi, modelin geleceğin biyoteknolojilerinin etik zorluklarını öngörerek ve etkisinde kalıcı olarak öngörülü olduğu kanıtlandı. Güçlü CRISPR teknolojisi on yıllar sonra ortaya çıktığında, biyokimyacı ve Nobel ödüllü Jennifer Doudna, ELSI çerçevelerinden yararlanarak etik etkileri hakkında uluslararası tartışmalara öncülük etti. Günümüzde genomik, Genomik ve Sağlık için Küresel İttifak ve Genom Düzenleme için Küresel Gözlemevi gibi çabalardan yararlanmaktadır . Ayrıca, genetik test için kanıta dayalı yönergelere ve bilimi ve onun sosyal ve etik boyutlarını anlamak üzere eğitilmiş bilim profesyonellerine dayanmaktadır. ELSI araştırma çabalarının işe yaramasını sağlayan şey kurumsal bağlılıktı: istikrarlı fonlama, disiplinlerarası araştırmacılardan oluşan güçlü bir topluluk, sosyal ve etik hususları spekülasyonun ötesine taşıyan deneysel araştırma ve yeni zorluklar ortaya çıktıkça yinelemeli iyileştirme.
ELSI çalışmalarının geçmişi de bu yapay zekâ dönemi için uyarı niteliğinde. İlk hibeler bazen sınırlı etkiye sahip işler üretti ve eleştirmenler, projelerin bilimsel uygulamaları yeniden şekillendirmeden fon sağlayıcılarını memnun eden “kutu işaretleme” çalışmalarına kayma riski taşıdığını belirtti . Diğerleri ise, birçok ELSI araştırmacısının genomik kurumlarda görev alması nedeniyle programın zaman zaman bağımsızlıktan yoksun olduğunu ve mevcut hiyerarşileri zorlamak yerine güçlendirdiğini savundu. Çeşitlilik de bir diğer zayıf noktaydı: Alan başlangıçta ağırlıklı olarak seçkin araştırma merkezleri ve üniversitelerden besleniyordu ve bu da diğer önemli bakış açılarının yeterince temsil edilmemesine neden oluyordu.
Bu eksiklikler, güç, öncelikler ve yapısal hesap verebilirlik konularında kör noktalar yarattı. Yapay Zeka için bir ELSI, yetkiyi geliştiricilerden kullanıcılara bağlayan topluluk merkezli yaklaşımlar, gerçek dünya performansı üzerine deneysel ve titiz araştırmalar ve kavramsal tartışmalar veya asılsız spekülasyonlar yerine sistematik kanıtlar aracılığıyla bu tuzaklardan kaçınacaktır . Amaç, sorumlu kalkınma ve gerçek inovasyonun itici gücü olarak toplumsal ve etik kaygılara dikkat çekmektir.
Yapay zekanın günümüzdeki hızlı gelişim döngüsü, genetik araştırmaları için on yıllar öncesine göre daha kritik bir bariyer geliştirmeyi daha kritik hale getiriyor; genetik araştırmalar daha bilinçli bir tempoda ilerliyor. Algoritmalar topluma çok az denetim veya önceden uyarı ile daha büyük bir hızla ve daha geniş bir ölçekte giriyor. İnsan genetiği uygulamalarının geniş bir sosyal yaşamı var —tıpta, adli tıpta, soyağacında ve daha ötesinde— ancak yapay zekanın kapsamı ve kullanımları daha da geniş. Yapay zeka sistemleri, birden fazla alanda faaliyet gösteren ” genel amaçlı teknolojiler ” olarak tanımlanıyor . Yapay zeka araştırmalarındaki “kara kutu” ve açıklanabilirlik zorlukları, genomik araştırmalarının kodlamayan DNA’nın işlevlerini ortaya çıkarma zorluğundan daha şiddetli olabilir. (Önemli olan, günümüzde genomik araştırmalarındaki en büyük keşif fırsatlarından bazılarının, her iki alanda da yeterli kurumsal mekanizmalara olan ihtiyacı derinleştiren bir yakınsama yaratan gelişmiş yapay zeka araçlarının kullanımını içermesidir.) Belki de en önemlisi, yapay zeka araçları ve sistemleri genellikle tüketici ürünleri aracılığıyla “doğada” konuşlandırılarak, halktan kişileri deneysel deneklere dönüştürüyor.
ELSI’nin mirasından yararlanarak, dört temel ilke, bir kez daha önlenebilir yapay zeka zararlarının yaşanmamasını sağlamaya yardımcı olabilir. İlk olarak, entegrasyon: Etik ve sosyal araştırmalar, yapay zeka geliştirme sürecinin her aşamasına yerleştirilmeli, uygulama sonrasında gözetim olarak kullanılmamalıdır. İkinci olarak, finansman: İnsan Genomu Projesi’nin %3 ila %5 modelini izleyen kamu ve özel sektörden önemli miktarda özverili yatırım, bu kritik çalışmanın eşitsiz bir şekilde finanse edilmesi yerine, hem düzenleyici gereklilikler hem de endüstri teşvikleri aracılığıyla yapay zekanın sosyal tasarımının ve toplumsal etkilerinin sistematik olarak araştırılmasını desteklemelidir. Üçüncü olarak, topluluk: Etkilenen topluluklar ve daha geniş halk, sosyal önceliklerin yalnızca gerçekleştikten sonra incelenmek yerine gelişmeyi şekillendirmesini sağlamak için araştırma tasarımında ve liderlikte anlamlı rollere sahip olmalıdır. Son olarak, titizlik: Sosyal ve etik araştırmalar, yapay zekanın gerçek dünyadaki etkilerine dair somut kanıtlar üretmeli, politika ve tasarıma rehberlik eden bulgular üretmek için teorik spekülasyonların ötesine geçmelidir.
Yapay zeka gelişiminin rekabetçi temposu, etik araştırmaları inovasyonla uyumlu hale getiren ve onları karşıt güçler olarak ele almayan mekanizmalar gerektiriyor. Güvenilir ve faydalı olabilmesi için, bu araştırmanın deneysel titizliğini koruması ve soyut spekülasyonlara dayanmak yerine, yapay zekanın gerçek etkileri hakkında somut kanıtlar üretmesi gerekiyor. Tartışma, kavramsal tartışmaların ötesine, yapay zeka araç ve sistemlerinin kullanımlarının etkilerine dair gerçek çalışmalara doğru ilerlemeli. Yapay zeka terapi sohbet robotlarının yakın zamanda yapılan sistematik testleri bu değişimi örnekliyor: Araştırmacılar, potansiyel zararları varsaymak yerine, teorinin tek başına gözden kaçırabileceği belirli tehlikeli davranışları belgelediler. Kanıta dayalı yapay zeka araştırmaları, etkili politika ve sorumlu tasarım için temel sağlar.
Mevcut yapay zeka etiği ve yapay zeka güvenliği manzarası , hızla genişlemesine ve hatta birleşmeye başlamasına rağmen , ELSI araştırma programlarının genomikte elde etmeye yardımcı olduğu şeyle karşılaştırıldığında, zorluğun ölçeğine kıyasla parçalı ve eşitsiz kalmaktadır. Bununla birlikte, ortaya çıkan girişimler sistematik reform için yapı taşlarının mevcut olduğunu göstermektedir. Amerika Birleşik Devletleri’ndeki Ulusal Standartlar ve Teknoloji Enstitüsü’nün Yapay Zeka Risk Yönetimi Çerçevesi, uygulayıcıları, araştırmacıları ve topluluk temsilcilerini içeren ortak tasarımdan kaynaklanan entegrasyonu göstermektedir; dağıtımdan önce yapay zeka risklerini öngörmek ve yapay zeka standartlarını şekillendirmek için. Hesaplama Makineleri Derneği’nin Adalet, Hesap Verebilirlik ve Şeffaflık (FAccT) topluluğu, ampirik araştırmalar yoluyla yapay zekanın toplumsal şekillenmesini ve sonuçlarını inceleyen uluslararası, disiplinler arası bir ağ kurarak titizliğe örnek teşkil etmektedir. Yapay Zeka Ortaklığı, endüstri ve sivil toplum paydaşlarıyla iş birliği çerçevelerinin temel modeller ve sentetik medya için pratik rehberlik sağlayabileceğini göstermiştir . Ekonomik İşbirliği ve Kalkınma Teşkilatı (OECD) ve Birleşmiş Milletler (BM) Yapay Zeka Yüksek Düzeyli Danışma Kurulu tarafından geliştirilen Yapay Zeka İlkeleri gibi girişimler , faydalı bir temel oluşturuyor; ancak BM’nin her ikisini de kolaylaştırmaya yönelik son çabalarına rağmen, özel ve sürekli bir fon veya uzun vadeli kurumsal taahhüt bulunmuyor . Bu örnekler, etik değerlendirmelerin yapay zeka gelişimine entegre edilmesinin mümkün olduğunu gösteriyor ve yapay zekanın siyasi ekonomisi ve kurumsal ekosistemine özgü zorlukları ele alırken genom biliminden de öğrenen kapsamlı bir ELSI programı için yapı taşları sağlıyor.
İnsan Genomu Projesi büyük ölçüde devlet tarafından finanse edilirken, bugün yapay zeka geliştirme çalışmaları büyük ölçüde özel sektör tarafından finanse edilmekte ve yönlendirilmektedir. Bu bağlamda, sosyal ve etik araştırmalar için yeni stratejilere ihtiyaç duyulmaktadır. Devlet kurumları, genomik emsalini izleyerek, federal sözleşme veya sübvansiyon alan şirketlerin yapay zeka araştırma bütçelerinin %3 ila %5’ini bağımsız etik araştırmalara ayırmasını zorunlu kılabilir. Endüstri konsorsiyumları, topluluk merkezli araştırmalar için gönüllü katkıları ortak fonlara aktararak maliyetleri sektör genelinde dağıtırken kolektif uzmanlık oluşturabilir. Uluslararası düzeyde, BM, OECD veya G7 aracılığıyla koordinasyon, temel finansman gerekliliklerini belirleyerek etik denetimin rekabette dezavantajlı olmaktan çıkıp standart bir iş yapma maliyeti haline gelmesini sağlayabilir.
ELSI’nin geçmişi, sistematik etik denetimin faydalı inovasyonu kısıtlamak yerine güçlendirdiğini göstermektedir. Yapay zeka geliştirme şu anda benzer bir dönüm noktasındadır, ancak daha yüksek riskler ve daha hızlı zaman çizelgeleriyle. Yapı taşları mevcut olsa da parçalı kalmaya devam etmektedir. İhtiyaç duyulan şey, ELSI’yi etkili kılan kurumsal taahhüttür: özel fonlama, yukarı akış entegrasyonu, topluluk liderliği ve deneysel titizlik. Soru şu ki, yapay zeka yönetişim çerçeveleri henüz oluşma aşamasındayken harekete mi geçeceğiz, yoksa önlenebilir ölümleri, ayrımcılığı ve kamu güveninin aşınmasını iş yapmanın maliyeti olarak mı normalleştireceğiz? Seçim, proaktif sorumluluk ile reaktif kriz yönetimi arasındadır. ELSI, ilkinin mümkün olduğunu gösterdi; yapay zekanın gücü, bu dersleri pratiğe dönüştürmemizi gerektiriyor.
- ELSI Projesi için daha fazla bilgi için https://doe-humangenomeproject.ornl.gov/ethical-legal-and-social-issues/ linkine ulaşılabilir.