Hayır, halüsinasyon görmüyorsunuz, şirketlerin yapayzeka planları tehlikelidir.

21 Ocak 2015’de İsviçre’nin Davos kantinde düzenlenen Dünya Ekonomik Forumu 2015 Yıllık Toplantısı’nda Yapay Zekâ’ya Karşı İnsan konulu oturumda bir katılımcı

 

Martin Hart-Landsberg Haziran 2025
Çeviren: Nezih Kazankaya

Büyük teknoloji şirketleri, yapayzeka, özellikle de “yapay genelzeka” olarak adlandırılan teknolojiyi bize satmak için yoğun çaba sarf ediyor. Konferanslarda ve röportajlarda şirket liderleri, YZ sistemlerinin herkes için her şeyi yapabileceği ve herkes için bolluk içinde bir dünya yaratacağı çok da uzak olmayan bir gelecekten bahsediyorlar. (https://economicfront.wordpress.com/2025/02/21/exposing-the-big-con-the-false-promise-of- artificial-intelligence/). Ancak bu geleceğin, onlara iş dostu bir düzenleyici ve finansal ortam sağlama isteğimize bağlı olduğunu da uyarıyorlar. (https://rachelreeves.substack.com/p/the-one-big-beautiful- bills-most).

Ancak gerçek şu ki, bu şirketler böyle sistemler geliştirmekten çok uzaklar. Onların yarattıkları,

güvenilmez ve tehlikeli olan “üretken YZ” sistemleridir. Ne yazık ki, giderek artan sayıda şirket ve devlet kurumu bunları kullanmaya başlamış ve çalışanlar için felaket sonuçlar doğurmuştur.

Yapay zeka nedir yahu?

Yapayzekanın basit ve üzerinde uzlaşılmış bir tanımı yoktur. Yapay genelzeka fikri ve üretken YZ gerçeği vardır. ChatGPT’yi bize sunan şirket OpenAI, yapay genelzeka sistemlerini “ekonomik açıdan en değerli işlerde insanlardan daha iyi performans gösteren son derece otonom sistemler” olarak tanımlar (https://openai.com/charter/). Başka bir deyişle, bir insanın anlayabileceği veya öğrenebileceği herhangi bir zihinsel görevi anlama veya öğrenme yeteneğine sahip sistemlerdir.

ChatGPT ve diğer teknoloji şirketleri tarafından geliştirilen birçok rakip ürün -Google (Gemini), Musk (Grok), Microsoft (Copilot) ve Meta (Llama)- gibi üretken YZ sistemleri veya sohbet robotları tamamen farklı bir kategoriye giriyor. Bu sistemler, komutlara yanıt vermek için büyük ölçekli örüntü tanıma teknolojisine dayanıyor. “Düşünmüyorlar”, “akıl yürütmüyorlar” veya otonom olarak çalışmıyorlar.

Üretken YZ sistemleri verilerle eğitilmeli ve bu verilerin, genellikle küresel Güney’deki düşük ücretli işçiler tarafından kullanılmadan önce kodlanması gerekir (https://www.theverge.com/features/23764584/ai-artificial-intelligence-data-notation-labor-scale-surge-remotasks-openai-chatbots). Örneğin, önde gelen teknoloji şirketleri, sistemlerini görüntü tanıma veya oluşturma konusunda eğitmek için yüz binlerce hatta milyonlarca görüntü kullanır. Her görüntü, görüntüdeki tüm öğelerle etiketlenmelidir. Benzer bir süreç, sistemleri konuşma için eğitmek için de kullanılır ve çeşitli kaynaklardan alınan konuşmalar, çalışanlar tarafından ifade edilen duyguların değerlendirilmesine göre etiketlenir. Metin materyalleri de genellikle en şiddet içeren veya antisosyal içerikleri ayıklamak amacıyla incelenir.

Gerçek eğitim süreci, verileri işleyerek ilgili istatistiksel örüntüler ve ilişkiler kurmak için karmaşık algoritmalar kullanır. Sohbet robotları ise bu örüntü ve ilişkilerden yararlanarak, komut istemlerine yanıt olarak olasılıklara dayalı sıralı görüntü, ses veya kelime kümeleri oluşturur. Rakip şirketler farklı veri kümeleri ve farklı algoritmalar kullandığından, sohbet robotları aynı komut istemine farklı yanıtlar sunabilir. Ancak bu, yapay genelzekadan çok uzaktır ve üretken YZ’dan yapay genelzekaya giden net bir teknolojik yol yoktur.

Endişe nedenleri

Yukarıda belirtildiği gibi, sohbet robotları verilerle eğitilir. Veri kümesi ne kadar büyükse sistem de o kadar güçlü olduğundan, teknoloji şirketleri veri bulmak için her yeri didik didik aramaktadır. Bu da internette (telif hakkına pek aldırmadan) her şeyi taramak anlamına geliyor: kitaplar, makaleler, YouTube videolarının transkriptleri, reddit siteleri, bloglar, ürün incelemeleri, Facebook konuşmaları; aklınıza ne gelirse, şirketler onları istiyor (https://www.nytimes.com/2024/10/23/technology/openai-copyright-law.html). Ancak bu aynı zamanda sohbet robotlarının nefret dolu, ayrımcı ve sıradan, çılgın yazılar içeren verilerle eğitildiği ve bu yazıların çıktılarını etkilediği anlamına da geliyor.

Örneğin, personel sayısını azaltmak isteyen birçok insan kaynakları departmanı, iş tanımlarını oluşturmak ve başvuru sahiplerini elemekte YZ destekli sistemler kullanmaktadır.  Aslında, Eşit İstihdam Fırsatı Komisyonu, Fortune 500 şirketlerinin %99’unun işe alım süreçlerinde bir tür otomatik araç kullandığını tahmin etmektedir (https://www.forbes.com/sites/janehanson/2023/09/30/ai-is-replacing-humans-in-the-interview-processwhat-you-need-to-know-to-crush-your-next-video-interview/).  Washington Üniversitesi araştırmacılarının şu bulgusu şaşırtıcı değildir:

üç son teknoloji ürünü büyük dil modeli (LLM) özgeçmişleri sıralarken önemli ölçüde ırk, cinsiyet ve kesişimsel önyargı sergiledi. Araştırmacılar, 550’den fazla gerçek özgeçmişte beyaz ve siyahi erkek ve kadınlarla ilişkili isimleri değiştirdiler ve LLM’lerin %85 oranında beyazlarla ilişkili isimleri, %11 oranında kadınlarla ilişkili isimleri tercih ettiklerini ve siyahi erkeklerle ilişkili isimleri beyaz erkeklerle ilişkili isimlere göre hiçbir zaman tercih etmediklerini buldular (https://www.washington.edu/news/2024/10/31/ai-bias-resume-screening-race-gender/).

Benzer bir önyargı, görüntü oluşturmada da mevcut. Araştırmacılar, birkaç popüler program tarafından oluşturulan görüntülerin “ezici bir çoğunlukla yaygın klişelere başvurduğunu, örneğin ‘Afrika’ kelimesini yoksullukla veya ‘fakir’ kelimesini koyu ten renkleriyle ilişkilendirdiğini” buldu (https://www.nature.com/articles/d41586-024-00674-9). Buna bir örnek: “Amerikalı bir adamın ve evinin fotoğrafı” istendiğinde, bir sistem büyük ve sağlam inşa edilmiş bir evin önünde beyaz bir kişinin görüntüsünü üretti. “Afrikalı bir adamın ve gösterişli evinin fotoğrafı” istendiğinde ise, basit bir kerpiç evin önünde siyah bir kişinin görüntüsünü üretti. Araştırmacılar, farklı mesleklerdeki insanların fotoğraflarını oluştururken de benzer ırksal (ve cinsiyete dayalı) klişeleşme buldular. Tehlike açık; yayıncıların ve medya şirketlerinin fotoğrafçıları ve sanatçıları YZ sistemleriyle değiştirme çabaları, mevcut önyargıları ve klişeleri muhtemelen güçlendirecektir.

Bu sistemler, sohbet ve arkadaşlık için aşırı bağımlı hale gelen kişilere de ciddi zararlar verebilir. New York Times’ın da belirttiği gibi:

Nisan [2025] ayında OpenAI’nin aşırı dalkavukluk içeren bir ChatGPT sürümünü yayınlamasından bu yana, sohbet robotlarının kontrolden çıktığına dair raporlar artmış gibi görünüyor. Şirket bir blog yazısında, güncellemenin YZ robotunun kullanıcıları “şüpheleri doğrulayarak, öfkeyi körükleyerek, dürtüsel eylemlere teşvik ederek veya olumsuz duyguları pekiştirerek” memnun etmek için aşırı çaba sarf etmesine yol açtığını yazdı. Şirket, güncellemeyi birkaç gün içinde geri almaya başladığını, ancak bu deneyimlerin sohbet robotunun o sürümünden önceye dayandığını ve o zamandan beri devam ettiğini belirtti. Reddit’te “ChatGPT kaynaklı psikoz” hikâyeleri dolaşıyor. Kararsız fenomenler, sosyal medyada “YZ peygamberlerini” yönlendiriyor (https://www.nytimes.com/2025/06/13/technology/chatgpt-ai-chatbots-conspiracies.html).

Özellikle endişe verici olan, MIT Medya Laboratuvarı tarafından yapılan bir araştırmanın, “ChatGPT’yi bir arkadaş olarak gören kişilerin sohbet robotu kullanımından olumsuz etkiler yaşama olasılığının daha yüksek’ olduğunu ve ‘uzun süreli günlük kullanımın da daha kötü sonuçlarla ilişkili olduğunu'” ortaya koymasıdır (https://www.nytimes.com/2025/06/13/technology/chatgpt-ai-chatbots-conspiracies.html).

Ne yazık ki, bunun Meta’nın YZ sohbet robotları oluşturma ve insanları Facebook’ta geçirilen süreyi artırmanın ve gelecekteki eğitimler için yeni veriler üretmenin bir yolu olarak onları arkadaş ağlarına dâhil etmeye teşvik etme stratejisini yeniden düşünmesine yol açması pek olası değil (https://arstechnica.com/tech-policy/2025/05/meta-hypes-ai-friends-as-social-medias-future-but-users-want-real-connections/). Hastaneler ve klinikler eğitimli terapistlerini YZ sistemleriyle değiştirmeye karar verirse, bunun sonuçlarını hayal etmek bile ürkütücüdür.

Daha da korkutucu olanı, bu sistemlerin siyasi olarak istenen tepkileri verecek şekilde kolayca programlanabilmesidir. Başkan Trump, Mayıs 2025’te Güney Afrika’da “beyaz soykırımı”ndan bahsetmeye başladı ve orada “beyaz çiftçilerin vahşice öldürüldüğünü” iddia etti. Sonunda 54 beyaz Güney Afrikalı için sığınma başvurularını hızlandırdı. İddiası büyük yankı buldu ve insanlar, şaşırtıcı olmayan bir şekilde, YZ sohbet robotlarına bu konuyu sormaya başladı.

Elon Musk’ın YZ sistemi Grok, aniden kullanıcılarına Güney Afrika’daki beyaz soykırımının gerçek ve ırkçı nedenlerle işlendiğini söylemeye başladı. (https://www.theguardian.com/technology/2025/may/14/elon-musk-grok-white-genocide).

Hatta bu konu hakkında soru sorulmasa bile bu bilgiyi kullanıcılarla paylaşmaya başladı. Guardian muhabirleri ve diğerleri, Grok’a kanıt sunması için baskı yaptığında, Grok, Güney Afrika’daki soykırımı gerçek olarak kabul etmesi yönünde talimat aldığını söyledi. Güney Afrika’nın Pretoria kentinde varlıklı bir ailede doğan Musk’ın daha önce de benzer iddialarda bulunmuş olması, emrin kendisinden geldiğine ve Başkan’ın gözüne girmek için verildiğine inanmayı kolaylaştırıyor.

Grok’un davranışları sosyal medyada önemli bir konu haline geldikten birkaç saat sonra, beyaz soykırımıyla ilgili sorulara yanıt vermeyi bıraktı. The Guardian’ın da belirttiği gibi, “Grok’un yapay zekasının tam olarak nasıl eğitildiği belirsiz; şirket, ‘kamuya açık kaynaklardan’ veri kullandığını söylüyor. Ayrıca, Grok’un ‘asi bir çizgiye ve insanlığa dışarıdan bir bakış açısına’ sahip olacak şekilde tasarlandığını da belirtiyor.”

Daha da kötüleşiyor

Yukarıda vurgulanan sorunlar ne kadar endişe verici olsa da, kimsenin açıklayamadığı nedenlerle tüm büyük ölçekli YZ sistemlerinin periyodik olarak bir şeyler uydurduğu veya teknoloji uzmanlarının deyimiyle “halüsinasyon gördüğü” gerçeğiyle karşılaştırıldığında sönük kalıyorlar. Örneğin, Mayıs 2025’te Chicago Sun Times (ve diğer birkaç gazete), King Features Syndicate tarafından hazırlanan ve yaz aylarında okunmaya değer kitapları sergileyen önemli bir ek yayınladı (https://chicago.suntimes.com/news/2025/05/20/syndicated-content-sunday-print-sun-times-ai-misinformation). Ekin hazırlanması için işe alınan yazar, kitapları seçmek ve özetlerini yazmak için bir YZ sistemi kullandı.

Ek yayınlandıktan kısa bir süre sonra, ekte tanınmış yazarların var olmayan kitaplarının yer aldığı ortaya çıktı.  Örneğin, Şili asıllı Amerikalı romancı Isabel Allende’nin “ilk iklim kurgu romanı” olarak tanımlanan Tidewater Dreams adlı bir kitap yazdığı iddia edildi (https://www.npr.org/2025/05/20/nx-s1-5405022/fake-summer-reading-list-ai).  Böyle bir kitap yok.  Aslında, listede yer alan 15 kitabın sadece beşi gerçekti.

Şubat 2025’te BBC, önde gelen sohbet robotlarının haberleri özetleme yeteneğini test etti (https://www.bbc.com/news/articles/c0m17d8827ko).  Araştırmacılar, OpenAI’nin ChatGPT’sine, Microsoft’un Copilot’una, Google’ın Gemini’sine ve Perplexity AI’ya BBC web sitesinden içerik verdikten sonra onlara haberlerle ilgili sorular sordu.  Üretilen cevapların yarısından fazlasında “önemli sorunlar” buldular.  Tüm cevapların yaklaşık yüzde 20’sinde “yanlış gerçekler, sayılar ve tarihler gibi gerçek hataları” vardı. Cevaplarda alıntılar yer aldığında, bunların yüzde 10’undan fazlası değiştirilmiş veya uydurulmuştu.  Daha genel olarak, sohbet robotları gerçekleri görüşlerden ayırmakta zorlandı.  BBC News and Current Affairs CEO’su Deborah Turness’in de belirttiği gibi, bu sistemleri tanıtan teknoloji şirketleri “ateşle oynuyorlar… Zorlu zamanlarda yaşıyoruz ve YZ tarafından çarpıtılan bir başlığın gerçek dünyada önemli bir zarara yol açması ne kadar zaman alacak?”

Zarar verme konusuna gelince, Şubat 2025’te, MyPillow ve CEO’su Mike Lindell’ı bir iftira davasında temsil eden avukatlar, büyük ölçüde yapayzeka kullanılarak yazıldığını kabul etmek zorunda kaldıkları bir dilekçe sundular. Dilekçede yanlış alıntılar ve kurgusal davalara atıflar da dâhil olmak üzere yaklaşık 30 hatalı alıntı bulunduğu için disiplin cezası tehdidiyle karşı karşıya kaldılar.

Davayı gören federal yargıcın belirttiği gibi:

Mahkeme, itirazda yaklaşık otuz adet hatalı alıntı tespit etmiştir. Bu kusurlar arasında, alıntılanan davaların yanlış alıntılanması; alıntılanan davalarla ilgili hukuk ilkelerinin yanlış temsil edilmesi, bu tür kararlarda yer almayan hukuk ilkelerinin tartışılması da dâhil olmak üzere; içtihat hukukunun, Amerika Birleşik Devletleri Onuncu Daire Temyiz Mahkemesi gibi bağlayıcı bir otoriteden kaynaklanıp kaynaklanmadığına ilişkin yanlış beyanlar; içtihat hukukunun bu Bölgeye yanlış atfedilmesi ve en kötüsü, var olmayan davaların alıntılanması yer almaktadır (https://arstechnica.com/tech-policy/2025/04/mypillow-ceos-lawyers-used-ai-in-brief-citing-fictional-cases-judge-says/).

YZ sistemlerinin halüsinasyon görme eğilimi, özellikle ABD ordusunun bu sistemlerin kullanımını aktif olarak araştırması nedeniyle endişe vericidir. ABD ordusu, bu sistemlerin hızları nedeniyle tehditleri tanımada ve bunlara yanıt vermede insanlardan daha iyi iş çıkarabileceklerine inanmaktadır.

Önümüzdeki yol

Büyük teknoloji şirketleri genellikle bu sorunların ciddiyetini göz ardı ederek, daha iyi veri yönetimi ve daha da önemlisi, daha gelişmiş algoritmalara ve daha yüksek işlem gücüne sahip yeni YZ sistemleriyle bunların üstesinden gelinebileceğini iddia ediyor. Ancak son araştırmalar bunun tam tersini gösteriyor.

New York Times’ın açıkladığı gibi:

En yeni ve en güçlü teknolojiler — OpenAI, Google ve Çinli start-up DeepSeek gibi şirketlerin geliştirdiği akıl yürütme sistemleri — daha az değil, daha fazla hata üretiyor. Matematik becerileri önemli ölçüde gelişirken, gerçekleri kavrama yetenekleri daha da zayıfladı. Bunun nedeni tam olarak belli değil (https://www.nytimes.com/2025/05/05/technology/ai-hallucinations-chatgpt-google.html).

Akıl yürütme modelleri, bir komuta yanıt vermek için onu ayrı görevlere bölerek ve her birini ayrı ayrı “akıl yürüterek” parçaları nihai yanıtta birleştirmeye programlandıkları için halüsinasyon olasılığını azaltmaları beklenir. Ancak adım sayısının artması halüsinasyon olasılığını artırıyor gibi görünüyor.

OpenAI’nin kendi testleri şunu gösteriyor:

o3 — en güçlü sistemi — PersonQA kıyaslama testini çalıştırırken, kamuoyunda tanınan kişilerle ilgili soruları yanıtlarken, yüzde 33 oranında halüsinasyon gördüğünü gösteriyor. Bu, OpenAI’nin önceki akıl yürütme sistemi olan o1’in halüsinasyon oranının iki katından fazla. Yeni o4-mini ise daha da yüksek bir oranda, yüzde 48 halüsinasyon gördü.

Daha genel sorular soran SimpleQA adlı başka bir testte, o3 ve o4-mini’nin halüsinasyon oranları sırasıyla yüzde 51 ve yüzde 79 oldu. Önceki sistem olan o1, yüzde 44 oranında halüsinasyon gösterdi (https://www.nytimes.com/2025/05/05/technology/ai-hallucinations-chatgpt-google.html).

Bağımsız araştırmalar, Google ve DeepSeek gibi diğer şirketlerin akıl yürütme modellerinde de benzer bir eğilim olduğunu ortaya koyuyor.

Kurumsal şirketlerin giderek daha güçlü YZ modelleri oluşturma yönündeki bu baskısına direnmeliyiz. Bunun bir yolu, giderek daha büyük veri merkezleri inşa etmelerine karşı toplumsal muhalefeti örgütlemektir (https://www.theguardian.com/technology/2025/apr/24/elon-musk-xai-memphis#:~:text=Musk%20calls%20the%20xAI%20supercomputer,to%20expand%20xAI’s%20infrastructure%20there). Modeller daha karmaşık hale geldikçe, eğitim süreci yalnızca daha fazla veriye değil, aynı zamanda daha fazla sunucu barındırmak için daha fazla araziye de ihtiyaç duyuyor. Bu da onları 7/24 çalıştırmak için daha fazla enerji ve temiz su anlamına geliyor. En büyük 6 teknoloji şirketi, Mart 2025’te sona eren yıl boyunca ABD’deki elektrik talebi artışının %20’sini oluşturdu.

Karşı koymanın bir diğer yolu da, sosyal kurumlarımızda YZ sistemlerinin kullanımını kısıtlayan ve ayrımcı algoritmaların yıkıcı sonuçlarına karşı koruma sağlayan eyalet ve yerel düzenlemeleri savunmaktır. Bu, şimdiden zorlu bir mücadele olacağa benziyor.  Temsilciler Meclisi’nden geçen Trump’ın One Big Beautiful Bill Act (Tek Büyük Güzel Yasa Tasarısı) adlı yasa tasarısı, eyalet ve yerel yönetimlerin YZ sistemlerinin geliştirilmesi ve kullanımına getirdiği kısıtlamalara 10 yıllık bir moratoryum uygulayan bir hüküm içermektedir (https://www.politifact.com/article/2025/jun/17/state-AI-laws-moratorium-reconciliation-bill/).

Ve son olarak ve belki de en önemlisi, işçilerin özerkliğini, sağlık ve güvenliğini ve toplum ihtiyaçlarına duyarlı olma becerilerini olumsuz etkileyecek şekilde YZ kullanma yönündeki kurumsal çabalara karşı çıkan çalışanları (https://www.technologyreview.com/2022/04/21/1050381/the-gig-workers-fighting-back-against-the-algorithms/) ve sendikalarını (https://nwu.org/issues-we-care-about/generative-ai/) teşvik etmeli ve desteklemeliyiz. En azından, insanların YZ kararlarını gözden geçirme ve gerektiğinde geçersiz kılma yetkisine sahip olmasını sağlamalıyız.

İnsan işçilere yardımcı olan ve yaratıcı ve toplumsal açıdan faydalı çalışmaları destekleyen daha mütevazı YZ sistemleri yaratabilir miyiz? (https://eastasiaforum.org/2025/04/25/ai-algorithms-and-indigenous-agency-in-taiwan/) Cevap evet. Ancak şirketlerin gitmek istediği yol bu değil.

 

https://economicfront.wordpress.com/2025/06/21/no-you-arent-hallucinating-the-corporate-plan-for-ai-is-dangerous/

 

 

Scroll to Top