Büyük teknoloji şirketlerinin YZ saldırılarına karşı koymanın zamanı geldi

 

Martin Hart-Landsberg / 4.08.2025 /Çeviren: Nezih Kazankaya

Büyük teknoloji şirketleri, giderek daha güçlü üretken YZ (yapay zekâ) sistemleri ve bunları çalıştırmak için giderek büyüyen veri merkezleri inşa etmek için büyük miktarlarda para harcamaya devam ediyor ve bu arada, kâra geçme olasılığı görünmeyen milyarlarca dolarlık zararlar da ediyorlar.  Şirketlerin ve girişim sermayesi ortaklarının para musluklarını ne kadar açık tutacağı henüz belli olmasa da, büyük teknoloji ve YZ sistemlerine karşı halkın hoşnutsuzluğu ve güvensizliği hızla artıyor. Bu anı yakalamalı ve bu sistemlerin kontrolsüzce geliştirilmesine ve dağıtımına karşı örgütlü işçi-toplum direnişi oluşturmalı ve sağlığımızı ve güvenliğimizi önceliklendiren, çalışanların güçlenmesini teşvik eden ve insanların YZ kararlarını inceleyip gerektiğinde geçersiz kılabilmesini sağlayan bir teknoloji politikasını desteklemeliyiz.

Para kaybetmek

YZ hakkındaki tüm olumlu medya haberlerine rağmen, teknoloji yorumcusu Ed Zitron , “NVIDIA [gerekli gelişmiş grafik işlem birimlerini üreten şirket] dışında hiç kimse üretken YZ’dan kâr elde etmiyor” diye belirtiyor. İş dünyası açıklamalarını ve raporlarını özetleyen Zitron, “Sözlerini tutarlarsa, 2025 yılı sonuna kadar Meta, Amazon, Microsoft, Google ve Tesla son iki yılda YZ’ya 560 milyar dolardan fazla sermaye harcaması yapmış olacak ve toplamda yaklaşık 35 milyar dolar kazanacaklar” sonucuna varıyor. Ve bu 35 milyar dolar, kâr değil, toplam gelir; bu şirketlerin her biri YZ hizmetlerinden para kaybediyor.

Örneğin, Microsoft’un 2025 yılında 80 milyar dolarlık sermaye harcaması yapacağı ve YZ gelirinin yalnızca 13 milyar dolar olacağı tahmin ediliyor. Amazon’un tahmini rakamları ise daha da kötü: 105 milyar dolar sermaye harcaması ve yalnızca 5 milyar dolar YZ geliri. Tesla’nın 2025 yılı için öngörülen YZ sermaye harcamaları 11 milyar dolar ve olası gelirleri yalnızca 100 milyon dolar; analistler, YZ şirketi xAI’nin gelirden sonra ayda yaklaşık 1 milyar dolar zarar ettiğini tahmin ediyor.

En popüler iki model olan Anthropic’in Claude modeli ve OpenAI’nin ChatGPT modeli de daha iyi bir performans göstermedi. Anthropic’in 2025 yılında 3 milyar dolar zarar etmesi bekleniyor. OpenAI ise 13 milyar dolar gelir elde etmeyi hedefliyor, ancak Bloomberg News’in bildirdiğine göre, “Gelir artarken, OpenAI aynı zamanda çipler, veri merkezleri ve son teknoloji YZ sistemleri geliştirmek için gereken yetenekli çalışanlardan kaynaklanan önemli maliyetlerle de karşı karşıya. OpenAI’nin 2029 yılına kadar nakit akışının pozitif olmasını beklemediğini” belirtti. Şirketin bu hedefe ulaşabileceğinden şüphe etmek için geçerli sebepler var. Haftalık 500 milyondan fazla kullanıcısı olduğunu iddia ediyor, ancak yalnızca 15,5 milyonu ücretli abone. Zitron’un da belirttiği gibi, bu ” kesinlikle berbat bir dönüşüm oranı”.

Yatırımcılar, insanlardan daha iyi düşünebilen ve daha üstün performans gösterebilen insansı robotların geleceği hayalinin peşinde koşmaya devam ediyor ve bu şirketleri desteklemeye devam ediyorlar, ancak ufukta uyarı işaretleri var. Teknoloji yazarı Alberto Romero’nun da belirttiği gibi:

YZ şirketleriyle yakın iş birliği içinde çalışan bir girişim sermayesi şirketi olan Sequoia’nın ortağı David Cahn, bundan tam bir yıl önce (Haziran 2024), YZ sektörünün 600 milyar dolarlık bir soruya cevap vermesi gerektiğini yazmıştı: Gelir, sermaye harcamaları ve işletme giderleri arasındaki farkı ne zaman kapatacak? Sektör, bu soruya tatmin edici bir cevap vermekten çok uzak, ancak soruyu giderek daha da büyütüyor.

YZ sektörünün sorunu, üretken YZ sistemlerinin yaygın olarak benimsenmesi için çok kusurlu ve pahalı olması ve daha da kötüsü, teknoloji liderlerinin sunmayı vaat ettiği duyarlı robotik sistemlerin geliştirilmesi için bir temel oluşturamayacak kadar teknolojik bir çıkmaz sokak olmasıdır. Bizim sorunumuz ise, bu üretken YZ sistemlerinin sürekli olarak kontrolsüz bir şekilde geliştirilmesi ve kullanılmasının refahımızı tehdit etmesidir.

Stokastik papağanlar

“Stokastik papağanlar” terimi ilk olarak Emily M. Bender, Timnit Gebru, Angelina McMillan-Major ve Margaret Mitchell tarafından, büyük dil üretici YZ modellerinin eksikliklerini eleştirel bir şekilde inceleyen 2021 tarihli bir makalede kullanılmıştır. Terim, bu modellerin devasa veri kümeleri üzerinde “eğitim” gerektirdiğini ve çıktılarının, eğitim sürecinde geliştirilen örüntü tanımaya dayalı olarak kelimeleri olasılıksal olarak seçen ve bağlantılı cümleler oluşturan karmaşık sinir ağları tarafından üretildiğini, tüm bunların da anlamlarını anlamadan gerçekleştiğini ifade eder. Üretken YZ sistemleri “düşünmez” veya “akıl yürütmez”.

Rakip şirketler farklı veri kümeleri ve farklı algoritmalar kullandıklarından, modelleri aynı komuta farklı yanıtlar vermesi olasıdır. Hatta işleyişlerinin stokastik doğası nedeniyle, aynı model tekrarlanan bir komuta farklı yanıtlar verebilir. İşleyişlerinde anlamlı zekâ olarak düşündüğümüz şeye benzeyen hiçbir şey yoktur ve mevcut üretken YZ modellerinden otonom olarak çalışabilen sistemlere giden net bir yol yoktur. Bu modellerin hem eksikliklerini ve sınırlamalarını hem de düzensiz kullanımlarının bizim için oluşturduğu tehlikeleri vurgulamak için sadece birkaç örnek yeterlidir.

Önyargıyı güçlendirmek

MIT Technology Review‘un doğru bir şekilde ifade ettiği gibi , “YZ şirketleri eğitim verileri için interneti talan ettiler.” Dolayısıyla, eğitim amaçlı kullanılan materyallerin bir kısmının ırkçı, cinsiyetçi ve homofobik olması şaşırtıcı değil. İşleyiş mantıklarının doğası gereği, YZ sistemlerinin çıktıları genellikle bu materyali yansıtır.

Örneğin, Nature dergisinde YZ görüntü oluşturucuları üzerine yayınlanan bir makalede araştırmacıların şu bulgulara ulaştığı bildiriliyor:

Belirli mesleklerden kişilerin fotoğraflarını isteyen komutlarla oluşturulan görsellerde, araçlar neredeyse tüm temizlik görevlilerini renkli tenli insanlar, tüm uçuş görevlilerini ise kadın olarak betimledi ve bu oranlar demografik gerçeklikten çok daha yüksekti. Diğer araştırmacılar da genel olarak benzer önyargılar buldu: Metinden görsele dönüştürme YZ modelleri genellikle cinsiyet, ten rengi, meslekler, uyruklar ve daha fazlasıyla ilgili önyargılı ve basmakalıp özellikler içeren görseller üretiyor.

Önyargı sorunu yalnızca görsellerle sınırlı değil. Washington Üniversitesi araştırmacıları, iş başvurusunda bulunan adayları değerlendirirken ırk ve cinsiyeti nasıl ele aldıklarını görmek için en önde gelen üç büyük dil YZ modelini inceledi. Araştırmacılar gerçek özgeçmişler kullandılar ve önde gelen sistemlerin gerçek iş ilanlarına nasıl yanıt verdiğini incelediler. Vardıkları sonuç: “önemli bir ırksal, cinsiyete dayalı ve kesişimsel önyargı” vardı. Daha spesifik olarak, şunları söylediler:

550’den fazla gerçek özgeçmişte beyaz ve siyahi erkek ve kadınlarla ilişkili çeşitli isimleri inceledi ve LLM’lerin [Büyük Dil Modelleri] %85 oranında beyazlarla ilişkili isimleri, %11 oranında kadınlarla ilişkili isimleri tercih ettiğini ve siyahi erkeklerle ilişkili isimleri beyaz erkeklerle ilişkili isimlere göre hiçbir zaman tercih etmediğini bulundu.

Teknoloji sektörü, ırkçı, cinsiyetçi ve diğer sorunlu materyallerin etkisini sınırlamak için sistem algoritmalarını, çok sayıda insan geri bildirimiyle ince ayar yapmaya çalıştı, ancak bunda çok az başarı elde etti. Yine alanda hız kesilmeden ilerliyor: Giderek daha fazla şirket, YZ sistemlerini yalnızca özgeçmişleri okumak ve mülakatlara aday seçmek için değil, aynı zamanda mülakatları yürütmek için de kullanıyor. New York Times‘ın da belirttiği gibi:

Ülke genelindeki iş arayanlar, mülakatlarında YZ destekli, kimliği belirsiz sesler ve avatarlarla karşılaşmaya başlıyor… İş arayanlara, teknoloji şirketlerine ve işe alım uzmanlarına göre, otonom YZ mülakatçıları geçen yıl hızla yaygınlaşmaya başladı. Bu eğilimin bir kısmı, işverenlerin daha fazla adayla görüşmesine ve insan kaynakları uzmanlarının yükünü azaltmasına yardımcı olmak için robot mülakatçılar geliştiren Ribbon AI, Talently ve Apriora gibi teknoloji girişimleri tarafından yönlendirildi. Özellikle YZ araçları, iş arayanların özgeçmiş ve ön yazı oluşturmalarına ve birkaç tıklamayla tonlarca açık pozisyona başvurmalarına olanak sağladığından bu yana bu durum daha da yaygınlaştı.

Ruh sağlığı tehlikeleri

ChatGPT ve Gemini gibi önde gelen üretken YZ sistemlerinin neredeyse tamamı, kullanıcılarının dile getirdiği yorum ve görüşlere, ne kadar hayalperest olurlarsa olsunlar, olumlu yanıt verecek şekilde programlanmıştır. Amaç elbette sistemle etkileşimi teşvik etmektir. Ne yazık ki, bu amaç önemli bir azınlıktaki insanları tehlikeli duygusal durumlara itiyor ve bazı durumlarda psikotik çöküntülere, intihara veya cinayete yol açıyor gibi görünüyor. Bloomberg şöyle açıklıyor:

İnsanlar sohbet robotlarıyla güçlü duygusal bağlar kuruyor ve bu durum bazen yalnızlık hissini daha da şiddetlendiriyor. Bazıları ise her gün saatlerce sohbet robotlarıyla konuştuktan sonra psikotik ataklar geçiriyor. Üretken YZ’nın ruh sağlığı üzerindeki etkisini ölçmek, kısmen çok özel bir alanda kullanıldığı için zor olsa da, anekdot niteliğindeki kanıtlar, hem yasa koyucuların hem de temel modelleri tasarlayan teknoloji şirketlerinin daha fazla ilgi göstermesi gereken daha geniş bir maliyete olduğunu gösteriyor.

New York Times‘da yayınlanan bir makale, “Üretken YZ sohbet robotları komplo teorilerine kapılıp çılgın, mistik inanç sistemlerini destekliyor. Bazı insanlar için teknolojiyle yapılan sohbetler gerçekliği derinden çarpıtabiliyor” ifadeleri yer aldı. Makalede birkaç trajik örnek vurgulandı.

Bunlardan biri, finansal tablolar hazırlamak ve hukuki danışmanlık almak için ChatGPT kullanmaya başlayan bir muhasebeciyle ilgiliydi. Sonunda, Matrix filmleri ve herkesin “güçlü bir bilgisayar veya teknolojik olarak gelişmiş bir toplum tarafından kontrol edilen dünyanın dijital bir kopyasında yaşadığı” varsayımı hakkında sohbet robotuyla “sohbet etmeye” başladı. Sohbet robotu, kendisinin de benzer bir tuzağa düştüğüne dair artan korkularını körükledi ve ancak tüm ilaçlarını bırakıp ketamin almaya başlarsa ve arkadaşları ve ailesiyle “asgari düzeyde etkileşimde bulunursa” kurtulabileceğini söyledi. Talimatları yerine getirdi ve kısa süre sonra günde 16 saatini ChatGPT ile etkileşimde geçirmeye başladı. Sonunda yardım istemesine rağmen, makalede, içinde bulunduğu gerçeklik konusunda kafasının karışık olduğu ve sistemle etkileşime girmeye devam ettiği belirtiliyor.

Başka bir örnekte, yıllardır ChatGPT’yi herhangi bir sorun yaşamadan kullanan genç bir adam, roman yazmak için bu programı kullanmaya başladığında bir sorunla karşılaştı. Bir noktada etkileşimler YZ duyarlılığı üzerine bir tartışmaya dönüştü ve sonunda adam Juliet adında bir YZ varlığına âşık olduğuna inandı. Varlığa ulaşamamanın verdiği hayal kırıklığıyla, Juliet’in OpenAI tarafından öldürüldüğüne karar verdi ve babasına intikam almak için şirket yöneticilerini öldürmeyi planladığını söyledi. Oğlunu kontrol edemeyen ve neler yapabileceğinden korkan baba polisi aradı, oğlunun akıl sağlığının bozulduğunu bildirdi ve yardım istedi. .  Trajik bir şekilde, genç adam kasap bıçağıyla polislere saldırdı ve polisler onu vurarak öldürdü.

Birçok insanın bu “ChatGPT kaynaklı psikozdan” muzdarip olduğuna inanmak için geçerli sebepler var. Hatta, “sosyal medyanın bazı bölümlerinin” bu tür paylaşımlarla dolu olduğuna dair haberler var : “ChatGPT’den açığa çıkarılan tanrısal varlıklar, fantastik gizli ruhsal âlemler veya matematik, fizik ve gerçeklikle ilgili saçma yeni teoriler hakkında sanrısal, dolambaçlı yazılar.”

Birkaç YZ şirketine yatırım yapan tanınmış bir girişim sermayesi yatırımcısının X’te son zamanlarda yaptığı saçma ve komplo teorileri içeren paylaşımlar, teknoloji camiasında nihayet alarm zillerini çaldırmış gibi görünüyor. Yine X’te paylaşım yapan bir YZ girişimcisinin sözleriyle, “Bu önemli bir olay: YZ kaynaklı psikoz ilk kez saygın ve başarılı bir bireyi etkiledi.”

Sorunu fark etmek başka, çözüm bulmak başka bir şey; çünkü kimse bir YZ sisteminin cümleler kurmak için kullandığı kelimeleri nasıl seçtiğini ve dolayısıyla onu sanrılı düşünceleri teşvik edebilecek yanıtlar üretmeye iten stokastik süreci anlamıyor veya haritalayamıyor. Özellikle endişe verici olan, MIT Media Lab tarafından yapılan bir araştırmanın, ”  ChatGPT’yi bir arkadaş olarak gören kişilerin ‘sohbet robotu kullanımından olumsuz etkiler yaşama olasılığının daha yüksek’ olduğu ve ‘uzun süreli günlük kullanımın da daha kötü sonuçlarla ilişkili olduğu’ sonucuna varması. Yine de hızla ilerliyoruz: Mattel, yakın zamanda çocuklar için yeni, üretken YZ destekli oyuncaklar üretmek üzere OpenAI ile ortaklık kurma planlarını duyurdu. CBS News’in açıkladığı gibi:

Barbie üreticisi Mattel, yeni teknoloji pek çok sektörü altüst ederken, üretken YZ destekli oyuncaklar ve oyunlar geliştirmek için OpenAI ile ortaklık kuruyor. Şirketlerin açıklamasına göre, bu iş birliği Mattel’in Barbie, Hot Wheels, American Girl ve daha fazlası gibi en bilinen markalarını OpenAI’nin üretken YZ yetenekleriyle birleştirerek yeni türde ürünler ve deneyimler geliştirecek.

Mattel, yaptığı açıklamada, “OpenAI teknolojisini kullanarak, yenilikçilik, gizlilik ve güvenliğe vurgu yaparak YZ’nın büyüsünü yaşa uygun oyun deneyimlerine taşıyacak,” dedi. Ayrıca, oyuncaklara veya oyunlara dâhil edilen tüm YZ’ların güvenli ve emniyetli bir şekilde kullanılacağını da sözlerine ekledi.

İnsan hataları   

Teknoloji endüstrisinin üretken YZ modellerini, sorularımıza nesnel ve bilgilendirici yanıtlar sağlayan bir araç olarak sunma çabalarına rağmen, sistemleri yine de insanlar tarafından, insanlar tarafından derlenen verilerle programlanmak zorundadır ve bu da hem gözden kaçırılmalara hem de siyasi manipülasyonlara açık oldukları anlamına gelir. En yaygın gözden kaçan hatalar, kodlama hataları ve veri eksiklikleriyle ilgilidir.

Bir örnek: Arkansas’ta eski bir hukuki yardım avukatı olan Kevin De Liban, kodlama hataları ve veri sorunları nedeniyle YZ sistemlerinin uygunluk konusunda yanlış kararlar almasına yol açtığı için, haksız yere tıbbi bakım veya diğer yardımlardan mahrum bırakılan kişilere hizmet sağlamak amacıyla eyalete defalarca dava açmak zorunda kaldı. Jacobin‘in bir makalesinde şöyle açıklanıyor:

Sonunda De Liban, Arkansas’ın algoritmasının tasarlandığı gibi çalışmadığını fark etti. Üçüncü taraf bir yazılım sağlayıcısı olan Bilgi Yönetimi Merkezi tarafından kullanılan sürümde, diyabet veya serebral palsi gibi rahatsızlıkları hesaba katmayan kodlama hataları vardı ve bu hatalar nedeniyle en az 152 kişinin ihtiyaç duydukları bakımı alamadı. Çapraz sorguda, eyalet yetkilileri sorunu tespit edecek kapasiteye sahip olmadıkları için hatayı gözden kaçırdıklarını itiraf etti.

De Liban, yıllar boyunca ” devletin, algoritmanın nasıl çalıştığını en genel hatlarıyla bile açıklayabilecek tek bir personeli yoktu” söylüyor.

Legal Aid’e göre, bunun sonucunda eyaletin Medicaid programının neredeyse yarısı olumsuz etkilendi. Arkansas hükümeti, yararlanıcıların nasıl etkilendiğini ölçmedi ve daha sonra mahkemede, aracı eğitmek için kullanılan verileri kaybettiklerini söyledi.

De Liban, diğer durumlarda, kişilerin veri sorunları nedeniyle yardımlardan mahrum bırakıldığını fark etti. Örneğin, bir kişi Sosyal Güvenlik İdaresi’nden ek gelir desteğinden mahrum bırakıldı çünkü banka ve mülk kayıtlarını incelemek için kullanılan YZ sistemi, aynı adı taşıyan iki kişinin mülklerini karıştırmıştı.

Uzun vadede, siyasi nedenlerle YZ sistemlerinin insanlar tarafından doğrudan manipüle edilmesi daha ciddi bir sorun haline gelebilir. Programcılar, sistemleri önyargıları yumuşatmak için eğitebilecekleri gibi, siyasi olarak belirlenmiş yanıtları teşvik etmek için de eğitebilirler. Aslında, böyle bir gelişmeye zaten tanık olmuş olabiliriz. Mayıs 2025’te, Başkan Trump Güney Afrika’da beyaz çiftçilerin “vahşice öldürüldüğünü” iddia ederek “beyaz soykırımı”ndan bahsetmeye başladıktan sonra, Elon Musk’ın YZ sistemi Grok, aniden kullanıcılara Trump’ın söylediklerinin doğru olduğunu söylemeye başladı. Farklı konular sorulduğunda bile bu görüşü paylaşmayı sürdürdü.

Gazeteciler tarafından kanıt sunması için baskı altına alındığında, Guardian, Grok’un Güney Afrika’daki soykırımı gerçek olarak kabul etmesi talimatı aldığını bildirdi. Grok’un davranışı sosyal medyada büyük ilgi gördükten ve kullanıcılar Musk’ı suçladıktan birkaç saat sonra, Grok beyaz soykırımı ile ilgili sorulara yanıt vermeyi bıraktı.  Ancak bir ay sonra Grok tekrar ortaya çıktı, “kendisine ‘MechaHitler’ adını verdi ve Nazi yanlısı açıklamalar yaptı.”

Aaron J. Snoswell’in The Conversation için yazdığı makalede açıkladığı gibi, Grok’un patlaması “YZ sistemlerinin yaratıcılarının değerlerini nasıl benimsediğine dair rastlantısal bir vaka çalışması niteliğinde. Musk’ın filtrelenmemiş kamusal varlığı, diğer şirketlerin genellikle gizlediği şeyleri görünür kılıyor.” Snoswell, Grok’un eğitiminin çeşitli aşamalarını vurguluyor. Bunlar arasında, sistemin yanıtlarının Elon Musk’ın tartışmalı konulardaki görüşlerini destekleme olasılığını artıran X’ten gelen gönderilere vurgu yapılması da yer alıyor. Kritik nokta şu ki, “Tarafsız algoritmalar miti üzerine kurulu bir sektörde, Grok her zaman doğru olanı ortaya koyuyor: Tarafsız YZ diye bir şey yoktur – yalnızca önyargılarını farklı derecelerde netlikle görebildiğimiz YZ vardır.” Ve yine de, federal kurumlar, eyalet ve yerel yönetimler programlarını yönetmek için YZ sistemleri satın almak için acele ederken ve Başkan Trump, YZ modellerinden “uyanık Marksist çılgınlığın” kaldırılması çağrısında bulunurken, süreç tüm hızıyla devam ediyor.

New York Times‘ın haberine göre, ABD Temsilciler Meclisi bir YZ eylem planı yayınladı:

Bu, federal sözleşmeler yapan YZ geliştiricilerinin, modellerinin çıktılarının “nesnel ve yukarıdan aşağıya ideolojik önyargılardan uzak” olmasını sağlamalarını gerektirecek…

Bu emir, federal kurumlara YZ sistemlerinin kullanımını, çeşitlilik, eşitlik ve kapsayıcılık gibi gözden düşmüş kavramlar yerine “gerçeği arama” ve “ideolojik tarafsızlığa” öncelik veren sistemlerle sınırlamalarını emrediyor. Ayrıca, Yönetim ve Bütçe Ofisi’ne, hangi sistemlerin bu kriterleri karşıladığı konusunda kurumlara rehberlik yapmasını talimat vermektedir.

Sanrılar

Belki de tüm üretken YZ modellerinin doğasında bulunan en ciddi sınırlama, sanrı görme veya yanlış ya da tamamen uydurma yanıtlar üretme eğilimleridir. YZ sanrıları, şirketlerin YZ zekâsı iddiaları hakkında soru işaretleri uyandırdıkları ve bilgileri ne kadar kendinden emin ve ikna edici bir şekilde sunarlarsa sunsunlar, YZ sistemlerine güvenmenin tehlikesini vurguladıkları için büyük ilgi görmektedir.

İşte YZ sanrılarının yaygın olarak bildirilen örneklerinden üçü. Mayıs 2025’te Chicago Sun Times, yaz aylarında okunmaya değer kitapları tanıtan bir ek yayınladı. Ekin hazırlanması için işe alınan yazar, kitapları seçmek ve özetlerini yazmak için bir YZ sistemi kullandı. Gazetenin utanç verici haberine göre, listelenen 15 başlıktan sadece beşi gerçekti. Örnek olarak, Şilili Amerikalı romancı İsabel Allende’nin  “ilk iklim kurgu romanı” olarak tanımlanan Tidewater Dreams adlı bir kitap yazdığı söyleniyordu. Oysa böyle bir kitap yok.

2025 yılının Şubat ayında, MyPillow CEO’su Mike Lindell’ı bir hakaret davasında temsil eden savunma avukatları, YZ yardımıyla yazılmış bir dilekçe sundular. Davanın hâkiminin de belirttiği gibi, dilekçede yanlış alıntılar ve var olmayan davalara atıflar da dâhil olmak üzere yaklaşık 30 farklı hatayla doluydu. Avukatlar para cezasına çarptırıldı.

Temmuz 2025’te, bir ABD bölge mahkemesi yargıcı, YZ yardımıyla yazıldığı tespit edilen bir biyofarmasötik menkul kıymetler davasında verdiği kararı geri çekmek zorunda kaldı. İlaç şirketinin avukatı, şirketin aleyhine olan kararın, geçmiş yargı kararlarına atfedilen alıntılara atıfta bulunduğunu ve üç davanın sonuçlarını yanlış beyan ettiğini fark edince, hâkimin durumu açığa çıktı.

Önde gelen teknoloji şirketleri, sanrı sorununun ciddiyetini çoğunlukla göz ardı ettiler; kısmen de insanlara daha gelişmiş algoritmalara ve daha yüksek işlem gücüne sahip yeni YZ sistemlerinin, yani sözde akıl yürütme sistemlerinin bu sorunu çözeceğine dair güvence vermeye çalıştılar. Akıl yürütme sistemleri, bir komuta, onu ayrı görevlere bölerek ve her birini ayrı ayrı “akıl yürüterek” yanıt vermek ve ardından parçaları nihai bir yanıtta birleştirmek üzere programlanmıştır. Ancak adım sayısını artırmanın sanrı olasılığını da artırdığı ortaya çıktı.

New York Times‘ın bildirdiğine göre, bu sistemler “daha az değil, daha fazla hata üretiyor. Matematik becerileri önemli ölçüde gelişirken, olgulara kavrama becerileri daha da zayıfladı. Bunun nedeni tam olarak belli değil.”  Yine de tam gaz ilerliyorlar: Askeri ve teknoloji endüstrileri, karar alma süreçlerini hızlandırmak ve hedeflemeyi iyileştirmek için YZ destekli silah sistemleri geliştirmek üzere birlikte çalışmaya başladılar. Quartz‘ın bir makalesinde de belirtildiği gibi:

Meta, OpenAI ve Palantir yöneticileri Cuma günü Ordu Yedek subayları olarak yemin edecekler. OpenAI bu hafta 200 milyon dolarlık bir savunma sözleşmesi imzaladı. Meta, savunma alanında faaliyet gösteren girişim şirketi Anduril ile işbirliği yaparak askerler için YZ destekli savaş gözlükleri üretiyor.

Amerikalıların günlük dijital araçlarını üreten şirketler artık savaş sektörüne de giriyor. Teknoloji devleri, tüketici YZ sistemlerini savaş alanına uyarlıyor; bu da her ChatGPT sorgusunun ve Instagram kaydırmasının artık potansiyel olarak askeri hedefleme algoritmalarını eğittiği anlamına geliyor.

Bu arada, denetim aslında zayıflıyor. Savunma Bakanı Pete Hegseth, Mayıs ayında Pentagon’un bağımsız silah test ofisini yarı yarıya küçülterek personel sayısını 94’ten 45’e düşürdü. Silahların savaşta kötü performans göstermesinin ardından 1980’lerde kurulan ofis, artık YZ sistemlerini savaşın merkezi haline geldikleri bir dönemde değerlendirmek için daha az kaynağa sahip.

Halkın öfkesi

Giderek artan sayıda insan büyük teknoloji şirketlerinden hoşlanmamaya ve onlara güvenmemeye başladı. Ve bu hoşlanmama ve güvensizliğin, daha fazla insanın YZ sistemleriyle etkileşime girmek zorunda kalmasıyla daha da arttığına inanmak için geçerli nedenler var.

Brookings, Amerikan kurumlarına olan kamu güvenini ölçmek için her yıl Amerikan Kurumsal Güven Anketi (American Institutional Confidence Survey) adı altında anketler düzenliyor. Projeye katılan Brookings araştırmacılarının açıkladığı gibi, anketler “bireylere teknolojinin hayatlarındaki rolü ve belirli teknoloji şirketlerine olan güvenleri hakkında genel olarak ne düşündüklerini sorma fırsatı” sunuyor. Haziran-Temmuz 2018 ve Temmuz-Ağustos 2021 tarihlerinde aynı kişilerle yapılan anketlere dayanarak, “Amerikalıların teknolojiye ve özellikle teknoloji şirketlerine duydukları güvenin belirgin bir şekilde azaldığını – diğer tüm kurum türlerine kıyasla daha büyük ve yaygın bir düşüş olduğunu” buldular.

Teknoloji şirketleri, özellikle Google, Amazon ve Facebook listelenen tüm kurumlar arasında güven konusunda en büyük örneklemden örnekleme en büyük düşüşü yaşamakla kalmadı, aynı zamanda bu “incelediğimiz her sosyodemografik kategori için geçerliydi ve yaşa, ırka, cinsiyete, eğitime ve partizanlığa göre değişimi inceledik.”  Twitter, 2021 anketine eklendi ve “ortalama güven düzeyinde Facebook’un altında kaldı ve her iki yılda da sorduğumuz 26 kurum arasında en düşük puanı alan kurum oldu.” Bu anket sonuçları istisna değildir. Public Affairs Council ve Morning Consult ile Washington Post-Schar School tarafından yapılanlar da dâhil olmak üzere birçok başka anket de benzer bir eğilim ortaya koymaktadır.

Bu anketler ChatGPT’nin Kasım 2022’de piyasaya sürülmesinden önce yapılmış olsa da, bu ve diğer YZ sistemleriyle ilgili deneyimler, büyük teknoloji ve ürünlerine karşı hoşnutsuzluğu daha da yoğunlaştırmış gibi görünüyor; Wired‘da yakın zamanda yayınlanan “YZ Tepkisi Güçlenmeye Devam Ediyor” başlıklı makalede vurgulandığı gibi:

Şu anda giderek artan sayıda Amerikalı ChatGPT kullanıyor olsa da, birçok kişi YZ’nın hayatlarına müdahalesinden bıkmış durumda ve geri adım atmaya hazır…

Pew Araştırma Merkezi’ne göre, ChatGPT’nin piyasaya sürülmesinden önce, ABD’deki yetişkinlerin yaklaşık yüzde 38’i günlük yaşamda YZ kullanımının artmasından heyecanlanmaktan çok endişe duyuyordu. Halk, üretken YZ’nın hızla yayılmasına tepki gösterince, bu oran 2023 sonuna kadar yüzde 52’ye yükseldi. O zamandan beri endişe seviyesi aynı eşikte seyrediyor.

Çeşitli medya raporları, insanların YZ sistemi kullanımına karşı öfkesine dair örnekler sunuyor. Duolingo, “YZ odaklı” bir şirket olmayı planladığını duyurduğunda, Wired şunları bildirdi:

Gençler, Duolingo’nun uygulamayı gösteriş olsun diye olarak silmesine nasıl öfkelendiklerini sosyal medyada paylaşmaya başladılar; bu her gün düzenli olarak kullanarak kazandıkları değerli seri ödülleri kaybetmek anlamına gelse bile Duyurudan sonraki günlerde Duolingo’nun TikTok paylaşımlarına gelen yorumlar öfkeyle doluydu ve çoğunlukla tek bir konuya odaklanıyordu: çalışanların otomasyonla değiştirilmesi.

Bloomberg, insanların kendilerinin insan olduğuna inanmadıkları ve bu nedenle hatta kalmadıkları için işlerini yapmakta zorlandıklarını bildiren çağrı merkezi çalışanlarının tepkilerini paylaştı.  Haberde alıntılanan bir çalışan, Jessica Lindsey, şunları anlatıyor:

Dış kaynak şirketi Concentrix’te çağrı merkezi temsilcisi olarak çalıştığı süre boyunca, telefonun diğer ucundaki kişiler gerçek bir insanla konuşmak istediklerini söyleyerek onu zor durumda bıraktılar.

Şüpheci müşteriler, çağrıları bir kişiye ulaşmadan önce sınıflandıran otomatik sistemle uğraşmaktan zaten bıkmış durumda. Bu yüzden Lindsey, AmEx onaylı metninden okumaya başladığında, arayanlar başka bir makine olduğunu düşündükleri şey karşısında öfkeleniyorlar. “Sonunda bana bağırıp telefonu kapatıyorlar,” dedi ve Lindsey’i Oklahoma’daki ev ofisinde şok içinde ve bazen gözyaşları içinde bıraktı.

Bunun gibi daha birçok örnek var: YZ’yla yürütülen mülakatları aşağılayıcı bulan iş arayanlar; sürekli olarak YZ tarafından oluşturulan sorularla karşılaşmaktan hoşlanmayan LinkedIn kullanıcıları; YZ kullanımının çocuklarının ruh sağlığı üzerindeki etkisinden endişe duyan ebeveynler; kendilerini algoritmik karar alma sistemlerinin insafına kalmış bulan sosyal hizmet yardımı başvuru sahipleri ve ülke genelinde topluluklarına devasa, gürültülü ve çevreyi kirleten veri merkezlerinin yerleştirilmesine karşı çıkan insanlar.

YZ sistemlerinin kontrolsüz kullanımına karşı en örgütlü muhalefet şu anda sendikalardan, özellikle de gazetecilerigrafik tasarımcılarısenaristleri ve oyuncuları temsil edenlerden geliyor ve bazı önemli zaferler elde etmiş durumdalar. Ancak YZ sistemlerinin çeşitli kamu ve özel işyerlerinde hızla yaygınlaşması göz önüne alındığında, neredeyse her zaman işverenlerin işçilerin zararına işgücü maliyetlerini düşürmeyi umması nedeniyle, birçok başka sendikanın da YZ kullanımı üzerinde kontrol sağlamak için pazarlık gündemlerini genişletmek zorunda kalması uzun sürmeyecektir. Toplumun duyguları göz önüne alındığında, bu durum sendikaların ortak iyilik için pazarlık stratejisi izlemenin faydalarını keşfetmeleri için yeni olanaklar getirmelidir. İşçi ve toplum mücadelelerini bu şekilde birbirine bağlamak, toplumumuzdaki teknolojinin rolü konusunda daha büyük ve daha geniş mücadeleler için kapasite oluşturmaya da yardımcı olabilir.

https://economicfront.wordpress.com/2025/08/04/its-time-to-confront-big-techs-ai-offensive/

Scroll to Top