Anthropic Çoktan Savaşa Girmiş Durumda

Pentagon, Arlington, Virginia. İran’a ilk bomba düşmeden önce Anthropic’in YZ modelleri CENTCOM’un hedef belirleme altyapısına entegre edildi.

Anthropic Çoktan Savaşa Girmiş Durumda

Gary Wilson / 5 Mart 2026 / Çeviren: Nezih Kazankaya

ABD ordusu, hedefleri bir algoritma ile kontrol etmeden İran’a tek bir bomba bile atmadı.

Bu bir metafor değil. Pentagon, 28 Şubat 2026’da Destansı Öfke Operasyonu’nu başlattığında, İran ordusu ve liderlik merkezlerine yönelik saldırılar, Silikon Vadisi şirketlerinden kiralanan yapay zekâ sistemleri tarafından işlendi, bağlantılandırıldı ve gerekçelendirildi.

Washington Post’a göre, operasyonların sadece ilk gününde, Anthropic’in Claude adlı sistemi, uydu görüntülerini, sinyal istihbaratını ve gözetim verilerini gerçek zamanlı olarak sentezleyerek, GPS koordinatları, silah önerileri ve her saldırı için otomatik yasal gerekçeler içeren hedef listeleri oluşturmak üzere yaklaşık 1.000 öncelikli hedef belirledi.

Tüketici sohbet robotlarını çalıştıran aynı teknoloji artık CENTCOM’un hedefleme altyapısına entegre edilmiş durumda ve komutanlara düzenli bir özet sunuyor: İşte hedef, işte risk, işte saldırı için mantıklı gerekçe.

Resmi Foundation of Martyrs and Veterans Affairs (Şehitler ve Gaziler Vakfı), 4 Mart 2026 itibarıyla İran’daki ölü sayısının en az 1.230’a ulaştığını açıkladı.

Ölenler arasında, savaşın ilk günü olan 28 Şubat’ta, Middle East Eye’ın “çift vuruşlu saldırı” olarak nitelendirdiği olayda hedef alınan güneydeki Minab kentindeki Şeceretü’t-Tayyibe kız ilkokulunun 165 öğrencisi ve personeli de bulunuyordu: İki füze atılmış, ikincisi ise okulun ibadet salonuna taşınan kurtulanlara isabet etmişti. Al Jazeera’nın Dijital Araştırma Birimi, uydu görüntüleri ve video kayıtlarını kullanarak saldırının yerini bağımsız olarak tespit etti.

Tetiği çeken makine değildir. Tetiği çeken insandır — Pentagon da tam olarak böyle bir çerçeve oluşturmak istemektedir. Ancak komutan saldırı emrini verdiğinde, YZ çoktan istihbarat bilgilerini okumuş, hedefi belirlemiş, ikincil hasar riskini değerlendirmiş ve önerisini oluşturmuştur. Bu zincirin sonunda yer alan insan imzası, bir değerlendirme değildir. Bir onaydır.

Bunu Pentagon oluşturdu

Haber medyası bu hikâyeyi tek yönlü anlatıyor: ordu Silikon Vadisi’ne uzanıyor ve savaş alanı için sivil teknolojiyi işe alıyor. Bu çerçeveleme, tarihi tam tersine çeviriyor.

Yapay zeka, başka herhangi bir şeyden önce askeri bir projeydi. DARPA — Pentagon’un Savunma İleri Araştırma Projeleri Ajansı — 1950’lerden itibaren MIT, Carnegie Mellon ve Stanford’da temel YZ araştırmalarını finanse etti. İnternet, nükleer savaştan sağ çıkmak için tasarlanmış bir Pentagon iletişim sistemi olan ARPANET olarak başladı. GPS, ABD Hava Kuvvetleri’nin bir projesiydi. Günümüzde tüm büyük YZ modellerinin temelini oluşturan sinir ağı araştırmaları, federal hibelerle üniversite laboratuvarlarında, savunma kurumunda çalışan araştırmacılar tarafından geliştirildi.

Bu, kamu yatırımlarının özel şirketler tarafından çalınmasıyla ilgili bir hikâye değildir. Emperyalist devlet ve tekelci sermaye birbirine zıt değildir — tek bir sistem olarak işlev görürler. DARPA, YZ araştırmalarını kamu hizmeti olarak finanse etmedi; bu araştırmalar daha sonra şirketler tarafından ele geçirildi.

Tekelci sermayenin devlet aygıtı olarak araştırmayı finanse etti ve kaynakları imparatorluğun teknolojik ihtiyaçlarına yönlendirdi. Bu yatırımlar olgunlaştığında tekeller, başka bir yere ait olan bir şeyi alarak değil, devreyi tamamlayarak bunları ticarileştirdi. DARPA, hiçbir özel şirketin bu riski üstlenmeyeceği veya bu kadar uzun süre beklemeyeceği için, üniversitelerde, tek bir yatırımdan bile geri dönüş beklenmeden, garantili bir getirisi olmayan araştırmaları finanse etmek için on yıllarını harcadı.

Araştırma meyvesini verdiğinde, Google, Microsoft ve rakipleri sonuçları patentlemek, araştırmacıları işe almak ve teknolojiyi bir ürün olarak geri satmak için oradaydı. Devlet riski üstlendi. Şirketler kârı aldı. Anlaşma budur, bundan sapma söz konusu değildir.

Dolayısıyla, Anthropic’ten Dario Amodei şirketinin “misyonundan” bahsettiğinde veya OpenAI’den Sam Altman “insanlığın yararı”ndan söz ettiğinde, aslında bu temelin üzerine inşa ettikleri şeyi anlatıyorlar: Silah araştırmaları geleneğinin üzerine kurulan ve tüketici pazarları için yeniden markalanmış ticari bir katman. DARPA olmadan Google, Google olmaz. Pentagon’un kurduğu bilimsel altyapı olmadan da Anthropic, Anthropic olmaz.

Pentagon şu anda Silikon Vadisi’ne uzanmıyor. Kendi şartları ile teknolojisini geri istiyor.

Muhalif değil

Trump yönetimi ile Anthropic arasındaki anlaşmazlığın haberlerde yer alması, birçok okuyucuda yanıltıcı bir izlenim bıraktı: Anthropic’in askeri operasyonlara dâhil edilmeye direndiği, “Kurumsal YZ” ilkelerinin savaşa katılmayı reddettiği izlenimi.

Durum bu değil.

Anthropic’in Claude modelleri, CENTCOM’un hedef belirleme ve savaş simülasyon altyapısına o kadar derinlemesine entegre olmuş durumda ki, Pentagon’un kendi tahminine göre bu modellerden vazgeçmek için en az altı ay geçmesi gerekecek. Böyle bir entegrasyon tesadüfen gerçekleşmez. Sözleşmeleri Anthropic imzalamıştı.

Kasım 2024’te, Claude’u gizli askeri ağlara entegre etmek üzere Palantir ve Amazon Web Services ile ortaklık kurdu; bunu Haziran 2025’te ulusal güvenlik kurumları için “Claude Gov”un piyasaya sürülmesi izledi. Palantir’in Maven Akıllı Sistemi — Pentagon’un amiral gemisi niteliğindeki YZ savaş programı, şu anda yaklaşık 1,3 milyar dolarlık bir sözleşme kapsamında faaliyet gösteriyor ve tüm ABD Savaş Komutanlıkları’nda 25.000’den fazla kullanıcıya hizmet veriyor — Claude’un üzerinde çalıştığı platformdur.

Destansı Öfke Operasyonu İran’ı vurduğunda, bu saldırılar Anthropic’in sistemleri arka planda çalışarak planlandı ve gerekçelendirildi. Ocak 2026’daki baskında Venezuela Devlet Başkanı Nicolás Maduro yakalandığında, Claude de bu sürecin içindeydi.

Amodei bunu kendisi doğruladı. 27 Şubat’ta yaptığı kamuoyuna açık açıklamada şöyle yazdı: “Anthropic, askeri kararları özel şirketlerin değil Savaş Bakanlığı’nın aldığını bilmektedir. Hiçbir zaman belirli askeri operasyonlara itirazda bulunmadık.” Claude’un gerçekte ne için kullanıldığını şöyle sıraladı: “istihbarat analizi, modelleme ve simülasyon, operasyonel planlama, siber operasyonlar ve daha fazlası.” Belirttiği kısıtlamalar hiçbir zaman bu işlevlerin herhangi birine yönelik değildi. Bu kısıtlamalar, iki dar kapsamlı istisna için geçerliydi: kitlesel iç gözetim ve tamamen otonom silahlar. Diğer her şey ise açıkça onaylanmıştı.

Anthropic savaşa karşı direnmiyor. Çoktan beri savaşı yürütüyor. Pentagon ile olan anlaşmazlık, şartlarla ilgili — özellikle, Anthropic’in kitlesel iç gözetim ve tamamen otonom hedefleme üzerindeki kısıtlamalarının kaldırılıp kaldırılamayacağıyla ilgili. Bu, basında yer alan haberlerin ima ettiğinden daha dar bir tartışma ve bunu kurumsal vicdan ile askeri gereklilik arasında bir çatışma olarak çerçevelemek, Anthropic’i gerçeklerin gerektirdiğinden çok daha fazla övüyor.

Anthropic, “Kurumsal YZ” çerçevesinin belirli kullanımlara kısıtlamalar getirdiğini söylüyor. Bu çerçeve kapsamında Anthropic, modellerinin ABD’li sivillerle ilgili toplu verileri (GPS konumları, kredi kartı işlemleri, arama geçmişleri) analiz etmesine izin vermiyor. İnsan onayı olmadan tamamen otonom ölümcül sistemlerin etkinleştirilmesini reddediyor. Savunma Bakanı Pete Hegseth yönetimindeki Pentagon, özel şirketlerin “ideolojik kaprislerle” askeri hazırlığı kısıtlayamayacağını savunarak bu sistemlerin tamamen ortadan kaldırılmasını istiyor.

Ancak bu sınırlamalar, yabancı halklara yönelik hedef belirleme, saldırı planlaması ve savaş simülasyonlarına tam katılımla bir arada var olmaktadır. Anthropic bir sınır çizmiştir — ve bu sınır, şirketin kamuoyundaki imajının ima ettiğinden çok daha fazla savaş faaliyetlerinin içine uzanmaktadır.

Derin araştırma

Trump yönetimi Anthropic’i “tedarik zinciri riski” olarak belirlediğinde, bu kararı ulusal güvenlik kararı olarak nitelendirdi. Zaman çizelgesi ise farklı bir yorumlamaya davet ediyor.

Trump, Anthropic’i federal sistemlerden yasaklayan yürütme emrini Cuma günü imzaladı. Saatler sonra, aynı gece, hafta sonu bitmeden, OpenAI CEO’su Sam Altman, şirketinin Pentagon ile gizli bir ağ anlaşması imzaladığını X’te duyurdu. Bundan birkaç saat sonra, ABD ve İsrail güçleri İran’a saldırı başlattı. Bu olayların sırası hiç de tesadüfi değildi.

Altman daha sonra çok aceleci davrandığını itiraf etti. “Gerçekten durumu yatıştırmaya ve çok daha kötü bir sonuçtan kaçınmaya çalışıyorduk,” diye yazdı bir sonraki gönderisinde, “ama sanırım bu sadece fırsatçı ve özensiz bir hareket olarak göründü.” Hukuk analistleri orijinal sözleşme metninde gözetimle ilgili boşluklar tespit ettikten sonra, anlaşma birkaç gün sonra revize edilmek zorunda kaldı.

Anthropic aleyhindeki somut iddialar, detaylı inceleme sonucunda çürümektedir. Pentagon, aylarca Anthropic’in kırmızı çizgilerinin — yurt içinde kitlesel gözetim yapılmaması, tamamen otonom silahların kullanılmaması — ideolojik bir aşırılık, askeri hazırlığa yönelik “uyanık” bir müdahale olduğunu ısrarla savunmuştu. Trump ise Truth Social’da, hükümetin “kontrolsüz, radikal solcu bir YZ şirketi” tarafından dikte edilmeyeceğini belirten bir paylaşımda bulunmuştu. Üst düzey bir Pentagon yetkilisi Axios’a şunları söyledi: “Dario ile ilgili sorun, onun için her şeyin ideolojik olması. Kiminle uğraştığımızı biliyoruz.”

Ardından OpenAI, aynı yasakları içeren bir anlaşma yaptı — kitlesel iç gözetim yok, tamamen otonom silahlar yok. Pentagon bunları kabul etti. Institute for Law and AI (Hukuk ve YZ Enstitüsü) kıdemli araştırma görevlisi Charlie Bullock, soruyu açıkça dile getirdi: “Pentagon, Anthropic’e buna çok benzer bir şey istediği için az önce sert bir tepki göstermişken, neden bu ifadeleri kabul etti, anlamıyorum.”

Yönetimden kimse bu soruya cevap vermedi. Altman’ın kendi açıklaması, Anthropic’in “uygulanabilir yasaları alıntılamak yerine sözleşmedeki belirli yasaklara daha fazla odaklanmış gibi göründüğü” idi — bu ayrım, iyi niyetle bakıldığında teknik bir ayrım, kötü niyetle bakıldığında ise başka gerekçelerle zaten alınmış bir karar için sonradan uydurulmuş bir gerekçelendirme. Altman, tüm çalışanların katıldığı bir iç toplantıda, anlaşmanın gerçekte ne anlama geldiğini çalışanlarına şöyle açıkladı: “Operasyonel kararlar alamazsınız.”

Bu yönetimin bir alışkanlığı var. Hedefini kamuoyuna açıklar, düzenleyici veya sözleşmeye dayalı önlemler yoluyla işini mahvetmekle tehdit eder ve hedef ödemeyi yaptığında ya da taleplerine boyun eğdiğinde anlaşmazlığı çözer. Anthropic’in federal sistemlerden yasaklanmasından tam bir yıl önce, Ocak 2025’te Trump, Beyaz Saray’da Altman, SoftBank ve Oracle ile birlikte durarak Stargate’i duyurdu — OpenAI’yi merkezine alan 500 milyar dolarlık bir YZ altyapı girişimi, kameralar önünde pekiştirilen, herkesin gözü önünde gerçekleşen bir siyasi ittifak. Sahibi yönetimde yer alan Elon Musk’ın xAI’si, daha “vatansever” olması nedeniyle gizli sözleşmelere hızla dâhil edildi.

Haberlerde tam olarak ele alınmayan soru, Anthropic atamanın ulusal güvenlik kararı mı yoksa müzakere pozisyonu mu olduğu ve yeterince büyük bir finansal veya siyasi tavizle bu sorunun aynı hızla çözülüp çözülemeyeceğidir.

Yanıt, Pentagon’un tedarik kararlarını kimin yönettiğinde yatıyor olabilir. Quincy Institute for Responsible Statecraft, Silikon Vadisi teknoloji şirketlerinin ve bunların arkasındaki risk sermayesi firmalarının, Trump yönetiminde Pentagon pozisyonları için adayları inceleme sürecinde doğrudan rol oynadığını belgelemiştir. Başkan Yardımcısı J.D. Vance, Palantir’in kurucusu Peter Thiel ile yakın bağlara sahiptir. Palantir, Anthropic’in gizli ağ entegrasyonunu ilk etapta aracılık eden şirkettir ve şu anda, onu değiştirecek herhangi bir YZ mimarisinde merkezi bir düğüm olarak konumlanmaktadır.

San José State Üniversitesi’nde kültürel antropolog olan Roberto González’e göre, 2019’dan bu yana en az 50 eski Pentagon yetkilisi, ordu ile ilgili risk sermayesi ve özel sermaye şirketlerine geçiş yaptı. González, Brown Üniversitesi’ndeki Costs of War Project (Savaşın Maliyeti Projesi) için hazırladığı 2024 raporunda askeri-sanayi kompleksinin dönüşümünü belgelemişti. Bu yetkililer, mevcut yetkililerle olan bağlantılarını kullanarak sözleşmeleri yatırım portföylerindeki şirketlere yönlendiriyorlar. Bu, eski anlamda yolsuzluk, yani masanın altından geçen kahverengi bir zarf değildir. Tasarlandığı gibi işleyen tekelci sermayenin kurumsal yapısıdır.

Anthropic’in yönetim içinde benzer bir destekçisi yoktur. Stargate anlaşmasına eşdeğer bir anlaşma yapmamıştır. Bunun bir ilke mi yoksa kabul etmeye değer bir teklifin olmaması mı olduğunu sadece Anthropic’in CEO’su Dario Amodei ve başkan yardımcısı kız kardeşi Daniela Amodei bilir.

Makinenin mantığı

YZ, savaşı daha hassas hale getirmez. Savaşı daha hızlı hale getirir ve savaşın gerekçelerini olduğundan daha katı gösterir.

Pentagon planlamacılarının en çok güvendiği üç işlev, istihbarat değerlendirmesi (yönetim ve uydu verilerini tehdit değerlendirmelerine dönüştürmek), hedef tanımlama ve saldırı dizilerini modelleyen ve ikincil hasar ve tırmanma risklerini öngören savaş simülasyonudur. Bu işlevler, saatler süren analizleri saniyelere sıkıştırmak için gerçekten yararlıdır. Aynı nedenle, aynı zamanda gerçekten tehlikelidirler.

González ayrıca, hızlı hareket etmeye ve mevcut pazarları altüst etmeye dayanan agresif Silikon Vadisi iş modellerinin, yeterince test edilmemiş ve algoritmik olarak kusurlu silah sistemlerinin geliştirilmesine yol açtığı konusunda uyarıda bulundu.

Bunun pratikte nasıl işlediğine dair örnek Gazze’de ortaya çıktı. 972 Magazine’in belgelediği üzere, İsrail’in “Lavender” adlı YZ sistemi yaklaşık 37.000 Filistinliyi suikast listesine aldı. İnsanların hedef seçimini algoritmik hedef oluşturma ile sistematik olarak değiştirme — insanları çıktıyı onaylamaya indirgeme — şu anda İran’a karşı geniş ölçekte uygulanıyor ve Claude her gün yüzlerce hedef oluşturuyor. The New Republic’in gözlemlediği gibi, her gün yüzlerce YZ tarafından oluşturulan hedef, askeri birimler arasında tutarsız bir doğrulama süreciyle işlendiğinde, anlamlı insan kontrolü bürokratik bir kurgu haline geliyor.

King’s College London Savunma Çalışmaları Bölümü’nden Profesör Kenneth Payne’in Şubat 2026’da yaptığı bir çalışmada, 21 simüle edilmiş nükleer kriz senaryosunda üç öncü YZ modeli — GPT-5.2, Claude Sonnet 4 ve Gemini 3 Flash — test edildi. Oyunların %95’inde her iki taraf da karşılıklı nükleer kesin yıkım sürecine girdi. Daha da çarpıcı olanı: hiçbir model, kaybediyor olsa bile uzlaşma ya da taviz vermeyi tercih etmedi. Modellerin attığı en gerilimi azaltıcı adım olan “Başlangıç Çizgisine Dön” seçeneği, vakaların %7’sinden azında tercih edildi. Üç model de nükleer silahları son çare olarak değil, sürekli olarak bir baskı aracı olarak gördü. Payne’in de belirttiği gibi, 1945’ten beri insan karar vericiler arasında var olan nükleer tabu, bu sistemler için hiçbir engel teşkil etmedi. Claude Sonnet 4’ün çıktılarının biri bu veri setinde yer alıyor. Pentagon’un yeterince “vatansever” olmadığı için aşamalı olarak kaldırdığı iddia edilen model, simülasyonda nükleer zorlamaya başvurmaya tamamen hazırdı.

Pentagon’un “işin içinde insan olması” şartı — her ölümcül saldırının bir insan tarafından onaylanması gerektiğine dair yasal ısrar — bir güvenlik önleminden çok bir formalitedir. Öldürme kararının mantığı, askeri doktrinle eğitilmiş bir makine tarafından önceden işlenmiş ve önceden gerekçelendirilmiş olarak geldiğinde, zincirin sonundaki insan bağımsız bir şekilde karar vermez, sadece bir öneriyi onaylar. Hesap verebilirlik kâğıt üzerinde korunur. Karar verme süreci modelin içinde çoktan gerçekleşmiştir.

Savaş sözleşmeleri ve kötüye giden bilanço

Bu şirketler, silah sektörüne inandıkları için bu işin içinde değiller. Bu işin içindeler çünkü akıl almaz bir hızla para kaybediyorlar ve Pentagon faturalarını ödemekten asla vazgeçmiyor — üstelik ödediği meblağlar da akıl almaz boyutta.

González’in raporuna göre, 2018 ile 2022 yılları arasında ABD ordusu ve istihbarat kurumları, yalnızca Microsoft, Amazon ve Google ile en az 28 milyar dolarlık sözleşme yaptı. Aynı dönemde büyük teknoloji şirketlerine verilen en büyük beş askeri sözleşmenin toplam tavanı en az 53 milyar dolardı. Risk sermayesi, 2021 ile 2023 yılları arasında savunma teknolojisi girişimlerine 100 milyar dolar daha aktardı. En büyük sözleşmelerin çoğu gizli ve kamu ihale veritabanlarında yer almıyor, bu nedenle gerçek rakamlar neredeyse kesinlikle daha yüksek.

YZ endüstrisi, henüz kârlı hale getiremediği veri merkezlerini inşa etmek için trilyonlarca dolar borç aldı. 2025 sonlarında J.P. Morgan tarafından yapılan bir pazar araştırması, YZ veri merkezlerini finanse etmek için daha geniş pazarda 1,5 trilyon dolarlık yatırım dereceli tahvillerinin ihraç edileceğini öngörüyordu. Bu tahvil piyasasında, YZ borcu şu anda büyük şirketlere verilen her doların 15-20 sentini oluşturuyor. Bunu bir perspektife oturtmak gerekirse: 2008’de küresel ekonomiyi çökerten subprime mortgage borcu, patladığında her doların 10 sentinden azını oluşturuyordu. YZ borç deliği şimdiden daha büyük.

Nedeni basit: YZ endüstrisinin kalbinde yer alan veri merkezleri para kaybediyor. Hedge fonu Praetorian’ın kurucusu Harris Kupperman’a göre, 2025 yılında inşa edilen bir veri merkezinin sadece ekipmanların aşınma ve yıpranması nedeniyle yıllık maliyeti 40 milyar dolar, ancak gelirleri sadece 15 ila 20 milyar dolar arasında. Meta, bu merkezlerin kullandığı özel çiplerin yılda %9 oranında bozulduğunu, yani bir merkezin üç yıl içinde kapasitesinin dörtte birinden fazlasını kaybettiğini tespit etti. Yatırımcı Michael Burry, bu merkezleri işleten şirketlerin donanımlarının beş yıl dayandığını iddia ederek bu gerçeği gizlediklerini belirtti. Ancak bu doğru değil.

Peki, faaliyetlerini sürdürmek için gereken para nereden geliyor? İki yerden: Pentagon sözleşmeleri ve işçilerin işlerinin ortadan kaldırılması. Her iki strateji de aynı amaca hizmet ediyor: her şey çökmeden önce kâr elde etmenin bir yolunu bulmak.

Askeri sözleşme, hükümetin ürünün çalışıp çalışmadığını sorgulamadan, güvenilir bir şekilde ve büyük miktarlarda ödeme yaptığı için caziptir. Ve yurt içinde, hedefleme verilerini işlemek için CENTCOM’a satılan aynı YZ araçları, hukuk firmalarına, bankalara ve lojistik şirketlerine de satılarak yardımcı avukatların, analistler ve koordinatörlerin işlerini ortadan kaldırıyor. Yıllarca uzmanlık kazanmak için emek harcayan vasıflı çalışanlar, işlerinin otomatikleştirilmesini izliyor. Henüz hedef tahtasına konmamış düşük ücretli işçiler, işten çıkarılma tehdidinin zam taleplerini bastırmak için kullanılması nedeniyle maaşlarının artmadığını görüyorlar.

Tüm bunların yarattığı zenginlik, altyapının sahibi olan kişilere akıyor. Pentagon’un YZ sözleşmeleri bu düzeni destekliyor.

Kim inşa ediyor, kim ölüyor

Pentagon’un gizli ağlarında Anthropic’in yerini almak için rekabet eden şirketler, daha iyi bir teknoloji ya da daha iyi bir etik anlayışı sunmuyor. Onlar, daha az soru soruyor. OpenAI ve xAI, otonom hedefleme araçları geliştirmeyi reddetmiyor; aksine, bunları daha çabuk geliştirmek için ihaleye giriyor.

İşçiler, bu sistemlerin yurt içinde veya yurt dışında kendilerine karşı nasıl kullanıldığı konusunda söz sahibi değiller — toplantıya davet edilmedikleri için değil, altyapının hiçbirine sahip olmadıkları ve hiçbir güce sahip olmadıkları için. Şehirleri haritalandırılan, liderleri izlenen ve altyapısı bu algoritmaların hedefi olan Batı Asya halkları, danışılacak paydaşlar değiller. Onlar imparatorluğun hedefleridir.

Destansı Öfke Operasyonu, halka hassas bir operasyon, cerrahi bir müdahale ve istihbaratla gerekçelendirilmiş bir operasyon olarak sunuldu. Gerçekte ise, büyük maliyetlerle kiralanan kurumsal YZ araçları, özel sözleşmelerle askeri komuta yapılarına entegre edilerek, insanları öldürecek ve yıllarca istikrarsızlık yaratacak saldırılar için mantıklı görünen gerekçeler üretti. Maryland Üniversitesi’nin yaptığı bir ankete göre, ABD vatandaşlarının sadece %21’i İran’a saldırıyı destekliyordu — bu, modern tarihteki herhangi bir ABD askeri harekâtı için en düşük oran.

Anthropic araçları geliştirdi, sözleşmeleri imzaladı ve hedefleri işledi. Şimdi, haber medyası onu muhalif olarak gösterirken, katılımının devamı için şartları müzakere ediyor. OpenAI ve xAI, daha da az soru soracaklarını vaat ederek onun yerini almak için rekabet ediyor.

Hiçbiri isteksiz değil. Makine çoktan çalışmaya başladı.

 

 

https://www.struggle-la-lucha.org/2026/03/05/84545/

Scroll to Top