
Eryk Salvaggio / Şubat 2026
Yapay zekâ teknolojisi ilerliyor. Büyük dil modelleri ve bunların toplum üzerindeki etkileri hakkında eleştirel düşünen herkes artık daha karmaşık bir zorlukla karşı karşıya: ajansal dönüşüm..
Endüstride, ajan tabanlı yapay zeka, “planlama” yapan ideal sistemleri ifade eder: daha fazla kod yazan kod üreten, uygulamalar ve modeller genelinde çok adımlı eylemler gerçekleştiren ve otonom olarak uyum sağlayan sistemler. Ajanlar, bir şeyleri bilen sistemler olarak değil, bir şeyler inşa eden sistemler olarak pazarlanmaktadır . Ajan tabanlı sistemler, bir uyarıya yanıt olarak yalnızca metin veya diğer medya üretmek yerine, kod üretir: dünyada harekete geçmek üzere tasarlanmış özel yazılım. Çok daha fazla çıktı üretme ve sonuçları diğer ajanlarla ortalama alma veya doğrulama gibi yapısal yenilikler, önceki modelleri rahatsız eden bazı güvenilirlik sorunlarını ele almaktadır. Kod, LLM’leri, hataların okunabilir ve düzeltilebilir olduğu varsayılan bir alana taşır.
Bu gelişmeler, LLM’nin kullanıcı deneyiminde gerçek iyileştirmeler sağlıyor; ancak bu gerçekten de yapay zeka projesinin haklılığını kanıtlıyor mu? Basında, bu yeni modellerin dönüştürücü olduğunu ve etkilerini değerlendirmek için yeni kavramsal çerçeveler gerektirdiğini savunan, bakış açısını değiştiren birçok makale yer alıyor . Daha da önemlisi, yapay zekanın en büyük oyuncularından ikisi olan OpenAI ve Anthropic’in önümüzdeki aylarda halka arz için hazırlık yaptığı söyleniyor; rakiplerin piyasa değerini şişirmeye çalışmasıyla birlikte, elbette, abartının artmasını beklemeliyiz. Ancak aynı zamanda sattıkları modellerde gerçek ilerlemeler de beklemeliyiz.
Bu iki şey aynı anda doğru olabilir. Bu firmaların ürünleri daha duyarlı ve yetenekli görünüyor, karmaşık görevleri verimli bir şekilde ele alıyor. Sorunları çözmek için kod yazabiliyorlar ve kod çalışana kadar yeniden yazmaya devam edebiliyorlar. Bu, birçok kullanıcı için açık görünen şeyi inkar etme anı değil, aksine teknolojinin ‘faydalılığı’ hakkındaki yaygın görüşe rağmen, kritik işlerin altında yatan endişelerin devam ettiğini vurgulama zamanıdır.
Kritik konum
Emily M. Bender, Timnit Gebru, Angelina McMillan-Major ve Margaret Mitchell, 2021’de yayınladıkları temel bir makalede, LLM’leri (Lineer Öğrenme Modelleri) eğitim verilerinden istatistiksel olarak olası kalıpları yeniden üreten sistemler olan stokastik papağanlar olarak tanımlamışlardı . Bu çerçeve geçerliliğini koruyor. Ancak şimdi bu sistemler daha karmaşık ve daha da anlaşılmaz hale geldi ve metne düşünülmüş bir niyet atfetme eğilimi artık koda da genişletilmelidir.
Ajan tabanlı sistemler bu papağanları etkileşimli çıktılar halinde bir araya getirir; rastgele bir sürü oluştururlar. Bu, yüksek frekanslı hisse senedi alım satım algoritmalarına benzer, ancak kod ve dil üretimi içindir. (Uygun bir şekilde, papağan sürüsünün çoğul hali “pandemonium”dur.)
Teknolojinin kullanıcı deneyimi ve uygulamaları değişebilir, ancak hesap verebilirlik konusundaki temel yetersizlik ve yapay zeka endüstrisinin altında yatan ideolojik ve maddi altyapılar aynı kalır. Makalenin temel sorusu olan “Dil Modelleri Çok Büyük Olabilir mi?” sorusu, veri toplama ve işleme alanındaki devasa yatırımlarla beş yıl önce olduğu kadar geçerliliğini koruyor. Algoritmik önyargıyı belirlemek , eğitimin çevresel maliyetlerini izlemek, veri üretiminin iş uygulamalarına meydan okumak veya akademide yapay zekanın eleştirel olmayan bir şekilde benimsenmesine haklı olarak karşı çıkmak için zemin hazırlayan diğer araştırmacılar , sadece hayır demek için hayır demiyorlar. Yapay zekanın uygulanması için asgari insan koşullarını ortaya koyuyorlar ve hala geçerliliğini koruyorlar. Bu durum, önyargı, yanlış zihin atfı ve verimsizlik endişelerini daha da artırıyor.
Sistem eleştirisini model değerlendirmesinden ayırmak, abartıya boyun eğmek anlamına gelmez: bu, bireysel kullanımlardan ziyade kolektif fayda ve zararlara odaklanmak demektir. Modellerin yapamayacakları veya yapmamaları gerekenler hakkında konuşabiliriz, ancak yapabileceklerini de inkar edemeyiz .
Ajan tabanlı yapay zekanın etkileri: Bir sürü özensiz yazılım dalgası
Ajan odaklı yaklaşımın ürünlerinden biri de özensiz yazılımlardır : Anlamlı bir şekilde incelenmelerinden daha hızlı üretilen, genellikle kısa vadeli sorunları hedefleyen yapay zeka tarafından oluşturulmuş yazılım uygulamaları. Bu şekilde üretilen kod, tipik olarak kullanıcının ihtiyaçlarını her şeyin önüne koyar. Bu yazılımı diğer kullanıcılara dağıtırsanız veya etkileşime girmesine izin verirseniz, kontrolsüz bir hava sahasına benzer bir durum yaratırsınız; birbirinden bağımsız, bireysel kararlar kaos yaratır.
Kod, altta yatan hataları gizleyen her türlü hile sayesinde dar koşullar altında çalışıyor gibi görünebilir. Kötü amaçlı yazılımların aksine, özensiz yazılımlar kasıtlı olarak yıkıcı değildir; ihmalkarlık yoluyla yıkıcı etki yaratırlar: Tek başına yaşayan bir erkeğin ev finansmanı hesap makinesinin çalışmasını sağlayan, ancak tek başına yaşayan bir anne tarafından kullanıldığında banka hesabında eksi bakiyeye yol açan sabit kodlanmış bir değişkendir. Yazılım tasarımı, kodladığı değerleri ve öncelikleri ve işlediği verileri nasıl bozduğunu, göz ardı ettiğini veya yanlış temsil ettiğini belirlemede hassas bir yaklaşım gerektirir. Bunu izlemek, teknik okuryazarlığın yanı sıra, kodun ele aldığı sorunları nasıl tamamladığı veya bozduğu konusunda da yargı gerektirir.
Teknik arızaların birikmesi
Güvenilirlik algısındaki artışa rağmen, dil modelleri asla gerçeğin makineleri olamaz. Sözde halüsinasyonları matematiksel olarak ortadan kaldırmak imkansızdır ve bu nedenle artan güvenilirlik algısı , bir dil modelinin bir görev için uygunluğunu abartma riskini artırır. Bir dil modeli ikna edici ve potansiyel olarak yanlış metin veya diğer medya üretirken, ajan tabanlı bir sistem ikna edici kod üretir. Bu kod, tek bir model çıktısından daha zor kesintiye uğratılabilen, izlenebilen veya denetlenebilen şekillerde üretilir. Düşünmeden oluşturulan kodun düşünme sürecini güvenilir bir şekilde belgeleyemezsiniz, bu nedenle kod doğrulanana kadar güvenilmez olarak kabul edilmelidir.
Hesap verebilirlik başarısızlıklarının artması
Ajan tabanlı bir sistemdeki hatalar, bir şey cepheyi çatlatana kadar görünmez bir şekilde birikir. Hassas sistemlerde, bu aksaklık insanlara zarar verebilir. Hükümet, bu sistemleri, fayda kararlarının otomatikleştirilmesi, sözleşme analizi ve düzenleyici inceleme gibi görevler için kullanmaya teşvik edilir; bu alanlarda zincirleme arızalar ciddi insani sonuçlar doğurabilir. Kırsal bir kasaba, çöp toplama için bir zamanlayıcı yazmak için kod kullanabilir, ancak bunun her gece sildiği bir Excel dosyasına istek gönderdiğini fark edebilir. Hükümetin amacı, haksız yere faydalarından mahrum bırakılan bir emekliye iş yükünü kaydırarak zaman kazanmak değildir.
Hesaplamalı çözümcülüğü zorlamak
Her sorun bir kodlama sorunu değildir. Kod üretimine erişim, bizi politika sorunlarını yeni kod satırlarıyla çözmeye ve makineler tarafından anlaşılabilir sorunlara odaklanmaya yönlendirir. Politika, endüstri, akademi ve medyanın hayal gücünü ele geçiren bu yaklaşım, bizi insanlıktan uzaklaşmaya alıştırır. Bir bilgisayar sisteminin yapısal ihtiyaçları çerçevesinde düşünüldüğünde, belirsiz uç durumlar artık sosyal dokunun yumuşak lifleri değil, teknik bir sıkıntı haline gelir. Sorunlarını çözebilecek bir topluluğun simülasyonu mümkün değildir: Karmaşıklık, anlamlandırmanın ve demokrasinin gerekli bir adımıdır .
Kaynak çıkarımının ve atıkların ölçeklendirilmesi
Ajan tabanlı sistemler sürekli döngü halinde çalışarak, daha amaçlı tasarlanmış yazılımlara kıyasla çok daha fazla kaynak tüketir. Yeni başlayan biri tek bir kod satırını ajan tabanlı bir sistemle yeniden yazdığında, sadece bir model kullanmaz; tüm sürüyi harekete geçirir. Bu ölçek, bireysel çıktıyı optimize eder: kodun verimliliğinden veya etkilerinden bağımsız olarak daha fazla, daha hızlı. Bu sadece çevresel bir maliyet değil. Bilgi ortak alanını bozar ve bu koda güvenen herkes için sorunlar yaratır. Ajan tabanlı sürüler, bireysel hesaplama gücünü genişletirken, geniş emek ve kaynak çıkarma ağlarını tek bir komut istemi penceresine sıkıştırır.
Kalıcı sorular
Bunlar, ajan tabanlı sistemlerin faydalı araçlar olduğu varsayımı altında ortaya çıkan sorunlardan sadece birkaçı. Büyük dil modellerine, işe yaramazlık iddialarının çok ötesinde gerekçelerle karşı çıkabiliriz. Yapay zeka endüstrisinin siyasi gücünü , abartıya dayalı özensiz uygulama modelini, gözetim tehlikelerini , insanlık dışı veri çıkarmanın asıl günahını veya kadın düşmanlığı ve ırkçılık gibi yerleşik önyargıları inceleyebiliriz . “Ve üstelik çalışmıyor bile!” diye eklemek cazip geliyor. Çevrimiçi ortamda, eleştirmenler dil modeli hatalarına dair komik ve dayanışma amaçlı memler paylaşıyorlar, ancak bunlar kullanıcıların günlük deneyimleriyle karıştırılmamalıdır.
Bu reddetmeler, ele alınması gereken asıl noktayı göz ardı ediyor. Çalışmayan sistemler iş gücü için hiçbir tehdit oluşturmaz; kimsenin kullanmadığı sistemler çevre için hiçbir tehdit oluşturmaz ve başarısız bir endüstri tarafından desteklenen sistemler çökecektir – tek yapmamız gereken beklemek. Bu, ilkeli veya titiz bir eleştiri zemini değil; pasifliktir ve gerçek dünyadaki kullanım algılarına karşılık gelmez. Eğer ajansal yapay zeka teknoloji için yeni bir yön belirliyorsa, tasarım kararlarından ziyade modelin “zekasını” merkeze alan yapay zeka güvenlik çerçeveleri temelde yetersizdir.
Hâlâ acilen tartışılan konu, faydanın sınırlarıdır: Fayda ne anlama gelir , kim için ve hangi koşullar altında ? Faydalar hangi maliyetle ve kimden elde edilir ve faydalar ile riskler nasıl dağıtılır? Hangi kararlar sessizce kamuoyu tartışmasından çıkarılıp şirketler, hükümetler ve diğer kurumlar tarafından kontrol edilen otomatik sistemlere devredilir? İnsanların dil modelleri kullanıyor olması, bu modellere yönelik eleştiriyi anlamsız kılmaz. Aksine, acil hale getirir.
https://www.techpolicy.press/stochastic-flocks-and-the-critical-problem-of-useful-ai/