Dünyanın En Yıkıcı Şirketi

Harry Booth/San Francisco ve Billy Perrigo / 11 Mart 2026

Kaliforniya’nın Santa Clara kentindeki bir otel odasında, YZ şirketi Anthropic’in beş çalışanı bir dizüstü bilgisayarın etrafında toplanmış, aceleyle çalışıyorlardı. Tarih Şubat 2025’ti ve yakındaki bir konferansa katılmışlardı ki, tedirgin edici bir haber aldılar: Kontrollü bir denemenin sonuçları, Anthropic’in YZ sistemi Claude’un yakında piyasaya sürülecek bir sürümünün teröristlerin biyolojik silah üretmesine yardımcı olabileceğini göstermişti.

Onlar, Claude’un gelişmiş yeteneklerini inceleyen ve siber saldırılardan biyogüvenlik tehditlerine kadar en kötü senaryoları öngörmeye çalışan Anthropic’in öncü kırmızı ekibinin üyeleriydi. Otel odasına koşarak geri döndüler, bir yatağı yan çevirip geçici bir masa olarak kullandılar ve test sonuçlarını dikkatle incelediler. Saatlerce çalıştıktan sonra bile, yeni ürünün güvenli olup olmadığından hala emin değillerdi. Anthropic, emin olana kadar Claude 3.7 Sonnet olarak bilinen yeni modelin piyasaya sürülmesini 10 gün erteledi. Bu çok uzun bir süre gibi gelmeyebilir, ancak dünyayı hızla yeniden şekillendiren bir sektörün öncülüğünü yapan bir şirket için bu süre sonsuzluk gibi geldi.

Kırmızı ekibin lideri Logan Graham, şirket ve dünya için kritik bir dönemeçte Anthropic’in karşı karşıya olduğu zorluklara örnek olarak biyolojik silah korkusunu hatırlattı. Anthropic, güvenliğe en fazla önem veren öncü bir YZ laboratuvarıdır. Aynı zamanda, kendi çalışanlarının çoğunun nükleer savaştan insanlığın yok oluşuna kadar korkunç bir felaketler dizisini tetikleyebileceğine inandığı bir teknolojinin giderek daha güçlü sürümlerini yaratma yarışında da başı çekiyor. Bebek yüzlü 31 yaşındaki Graham, YZ’nın faydalarını muazzam riskleriyle dengeleme sorumluluğunu hafife almıyor. “Huzurlu bir dünyada büyüyen bazı insanların sezgisi, bir yerlerde bunu nasıl düzelteceklerini bilen yetişkinlerle dolu bir oda olduğu yönündedir” diyor. “Yetişkinlerden oluşan gruplar yok. Öncelikle böyle bir oda yok. Aradığınız kapı yok. Sorumluluk size ait.”

Eğer bu yeterince canlandırıcı gelmediyse, biyolojik silah korkusunu nasıl hatırladığını bir düşünün: “Eğlenceli ve ilginç bir gündü.”

Graham, birkaç hafta önce Anthropic’in genel merkezinde bir konuşma yaptı. TIME dergisi, yapay zeka yarışında bir zamanlar ayrıksı küçük kardeş olarak görülen bu şirketin nasıl birdenbire öncü konuma yükseldiğini anlamak amacıyla, burada üç gün boyunca yöneticiler, mühendisler, ürün sorumluları ve güvenlik liderleriyle röportajlar gerçekleştirdi. Anthropic, bu yıl gerçekleşmesi muhtemel halka arz öncesinde yatırımcılardan 30 milyar dolarlık fon toplamıştı. (TIME’ın sahibi Marc Benioff’un CEO’su olduğu Salesforce, Anthropic’in yatırımcılarından biridir.) Şirketin 380 milyar dolarlık değerlemesi, Goldman Sachs, McDonalds ve Coca-Cola’nın değerlemelerini şimdiden gölgede bırakıyor. Gelirleri ise roket gibi yükseliyor. Claude, Code ve Cowork gibi ürünleriyle programcı olmanın anlamını altüst eden, dünya çapında bir model olarak kabul ediliyor. Araçları o kadar iyi ki, yatırımcılar bu gelişmelerin hukuktan yazılım geliştirmeye kadar tüm kategorileri altüst etme olasılığını kavradıkça, her yeni sürüm borsada şok etkisi yaratıyor. Geçtiğimiz birkaç ay içinde, işin geleceğini en çok altüst edecek şirket olarak öne çıktı.

Ardından Anthropic, savaşın geleceği konusunda bir çekişmenin ortasında kaldı. Bir yılı aşkın bir süredir Claude, ABD hükümetinin tercih ettiği YZ modeli ve gizli kullanım için onay alan ilk öncü sistem olmuştur. Ocak ayında, Caracas’ta Venezüella Devlet Başkanı Nicolás Maduro’nun pervasızca yakalanması operasyonunda kullanıldı. Ancak izleyen haftalarda, Anthropic ile Pentagon arasındaki ilişkiler bozuldu. 27 Şubat’ta Trump yönetimi, şirketi ulusal güvenlik için bir tedarik zinciri riski olarak tanımlayacağını duyurdu; bu, ABD’nin bir Amerikan şirketine bu etiketi yapıştırdığı bilinen ilk durumdu. Tarihin en hızlı büyüyen yazılım şirketi artık kendi hükümetiyle savaş halindeydi. Başkan Trump, ABD’ye Anthropic’in yazılımını kullanmayı tamamen durdurma emri verdi. Savunma Bakanı Pete Hegseth, hükümetle iş yapan hiçbir şirketin Anthropic ile iş yapmasının yasaklanacağını duyurdu. Anthropic’in rakibi OpenAI, bu fırsatı kaçırmayarak askeri sözleşmeyi imzaladı. Dünyanın en yıkıcı şirketi, yıkılmıştı.

Bu çatışmanın merkezinde, Amerika’nın elindeki en güçlü silahlardan biri olarak görülen bir teknolojinin sınırlarını kimin belirleyeceği sorusu yatıyor. Anthropic, araçlarının savaşta kullanılmasından memnuniyet duyuyordu ve Çin gibi otoriter devletlerin tehdidini önlemenin tek yolunun ABD ordusunu güçlendirmek olduğunu savunuyordu. Ancak CEO Dario Amodei, “tüm yasal kullanımlara” izin vermek amacıyla şirketin devlet sözleşmelerini yeniden müzakere etmeye çalışan Pentagon’a itiraz etmişti. Amodei iki özel endişeden bahsetti: Anthropic’in YZ’nın tamamen otonom silah sistemlerinde kullanılmasını veya Amerikan vatandaşlarının kitlesel olarak gözetlenmesini istemiyordu.

Hegseth ve danışmanları, bir özel şirketin ordunun nasıl savaşacağını dikte etmeye çalıştığını düşündükleri bu duruma öfkelendiler. Savunma Bakanlığı’nın görüşüne göre, Anthropic gereksiz güvenlik önlemleri konusunda ısrar ederek, belirli varsayımları dava konusu yapmaya çalışarak ve ardından sonraki müzakerelerde ayak sürüyerek ortaklığı baltaladı. Trump yönetimi, Amodei’yi kibirli ve inatçı buluyordu ve ürünü ne kadar iyi olursa olsun, özel bir şirketin askeri komuta zincirine müdahale etmesine izin vermeyecekti. Pentagon’un Savaş Müsteşarı ve baş teknoloji sorumlusu Emil Michael, “İşler uzadıkça uzadı” diyor. “Hayal edemediğim veya kavrayamadığım istisnalar üzerine 3 milyon kişilik bir bölümü yönetemem.”

Silikon Vadisi’nden Capitol Hill’e kadar pek çok gözlemci, meselenin gerçekten bir sözleşme anlaşmazlığı olup olmadığını merak etti. Eleştirmenler, Trump yönetiminin eylemlerinde, siyasi görüşlerini beğenmediği bir şirketi çökertmeye yönelik endişe verici bir girişim gördü. Amodei, sızdırılan bir iç yazışmada, “[Savunma Bakanlığı] ve Trump yönetiminin bizden hoşlanmamasının asıl nedeni, Trump’a bağış yapmamış olmamızdır” diye yazdı. “Trump’a diktatör tarzı övgülerde bulunmadık (oysa [OpenAI CEO’su] Sam [Altman] bunu yaptı), onların gündemine aykırı olan YZ düzenlemelerini destekledik, bir dizi YZ politikası meselesinde (iş kaybı gibi) gerçeği söyledik ve ‘güvenlik tiyatrosu’ yaratmak için onlarla işbirliği yapmak yerine, dürüstlükle kırmızıçizgilerimizi koruduk.” Michael bunu “tamamen uydurma” olarak nitelendirerek reddediyor ve bu kararın, Anthropic’in tutumunun savaşçıları tehlikeye attığı için alındığını söylüyor: “Benim işim Savaş Bakanlığı’nda siyaset yapmak değil, benim işim ülkeyi savunmak.”

Anthropic’in alışılmışın dışındaki kültürü, kutuplaştırıcı iç politika, ulusal güvenlik ve acımasız kurumsal rekabetin hüküm sürdüğü belirsiz bir dünyayla çatışmıştı. Bu çalkantıda ne kadar zarar gördüğü net değil. Tedarik zinciri riski sınıflandırması, başlangıçta tehdit edildiğinden daha dar kapsamlıydı; Anthropic’e göre bu sınıflandırma yalnızca askeri sözleşmeler için geçerli. 9 Mart’ta Anthropic, kara listeye alınma kararının iptal edilmesi için hükümet aleyhine dava açtı. Müşteriler, etik bir duruş sergileyerek ChatGPT’yi terk edip Claude’a akın ederek şirketi ödüllendirmiş gibi görünüyordu. Ancak şirket şimdi, Anthropic’ten şiddetle hoşlanmayan acımasız rakiplerle yakın bağları olan yetkililerden oluşan, düşmanca ve çıkar alışverişi yapan bir yönetim altında önümüzdeki üç yılı idare etmek zorunda.

Pentagon serüveni, yüksek riskli etik ikilemlerle başa çıkmaya alışkın bir şirket için bile rahatsız edici sorular ortaya atıyor. Bu çatışmada Anthropic pes etmedi: şirket için büyük bir bedel olsa bile değerlerine sadık kaldığını savundu. Ancak başka olaylarda geri adım attı. Pentagon’a karşı dik durduğu aynı hafta, şirket, rakiplerinin aynı şeyi yapmaya isteksiz olduğunu gerekçe göstererek, modellerini güvenli bir şekilde eğitme taahhüdünün temel bir kısmını yumuşattı. Başka hangi tavizleri vermeye hazır olabilir?

Riskler giderek artıyor. Teknoloji güçlendikçe, YZ’yı kimin kontrol edeceği konusundaki rekabet de şiddetlenecek. Claude’un Venezuela ve İran’da kullanılması, gelişmiş YZ’nın artık dünyanın en güçlü orduları için vazgeçilmez bir araç haline geldiğini gösteriyor. Öte yandan, kâr amacı güden bir şirketin, riskli yeni bir teknolojiyi piyasaya sürme yarışında hâlihazırda üstünde duran yüklerin üzerine, devlet gücü, iç politika ve ulusal güvenlik gereklilikleri gibi bir dizi yeni baskı da eklenmiş durumda. Tıpkı bir tedavi bulmak için laboratuvarda ölümcül patojenler üreten biyologlar gibi, Anthropic de YZ’nın tehlikelerini haritalandırmayı kendine görev edindi ve gelişimin sınırlarını zorlayarak, pervasız kısa yollara başvurmaya daha istekli olan başkalarına bu işi bırakmadı. Ancak, ihtiyatlı olmayı öğütlerken bile, Anthropic, kendisinin gelecekteki, daha güçlü sürümlerinin geliştirilmesini hızlandırmak için Claude’u kullanıyor. Çalışanlar, önümüzdeki birkaç yılın hem şirket hem de dünya için çok önemli bir sınav olacağına inanıyor. Graham, “2026 ile 2030 yılları arasında en önemli olayların yaşanacağı, modellerin daha hızlı, daha iyi ve muhtemelen insanların kaldırabileceğinden daha hızlı hale geleceği bir dönemdeymişiz gibi hareket etmeliyiz” diyor. Anthropic’in güvenlik önlemleri başkanı Dave Orr’un ifadesiyle, “Bir uçurumun kenarındaki yolda gidiyoruz. Bir hata sizi öldürür. Şu anda 25 yerine 75 hızla gidiyoruz.”

Anthropic’in San Francisco’daki genel merkezinin beşinci katı, sıcak ahşap ve yumuşak ışıklarla dolu. Pencereler yemyeşil bir parka bakıyor. Bilgisayar biliminin kurucularından biri olan Alan Turing’in portresi, çerçeveli makine öğrenimi makalelerinin yanında duvarda asılı. Siyah giysili güvenlik görevlileri, neredeyse boş olan girişi devriye geziyor; burada güler yüzlü bir resepsiyonist, ziyaretçilere sokak köşelerinde din propagandacılarının dağıttığı cep İncil’leri boyutunda küçük bir kitabın kopyalarını uzatıyor. Bu kitap, Dario Amodei’nin 2024 yılında yazdığı, 14.000 kelimelik bir deneme olan Machines of Loving Grace‘in (Lütuf Sever Makinalar) bir kopyası. Amodei bu kitapta, YZ’nın bilimsel keşifleri hızlandırarak dünyayı nasıl dönüştürebileceğine dair ütopik vizyonunu ortaya koyuyor. Ocak ayında Amodei, ikinci bir kısa roman uzunluğundaki deneme olan The Adolescence of Technology’yi (Teknolojinin Ergenlik Dönemi) yayınladı. Bu kitapta, kitlesel gözetleme, yaygın iş kayıpları ve hatta insan kontrolünün kalıcı olarak yitirilmesi gibi eşlik eden tehlikeleri ayrıntılı olarak ele alıyor.

Amodei, San Francisco’da büyümüş bir biyofizikçidir. Şirketin başkanı olan kız kardeşi Daniela ile birlikte Anthropic’i yönetmektedir. İkili, OpenAI’nin ilk çalışanları arasındaydı; Dario, buradaki çalışmalarıyla, günümüzdeki YZ patlamasının başlangıcını oluşturan, sözde YZ ölçeklendirme yasaları hakkında yaşamsal bir keşfe imza attı. Daniela ise güvenlik politikasından sorumlu bir yöneticiydi. Başlangıçta, büyük potansiyel faydalar ve buna eşdeğer riskler barındıran bir teknolojiyi güvenli bir şekilde geliştirmek olan OpenAI’nin kurucu misyonuyla aynı görüşteydiler. Ancak OpenAI’nin modelleri giderek daha güçlü hale geldikçe, Altman’ın yeterince düşünme ve test etme süresi ayırmadan yeni ürünleri piyasaya sürmek için acele ettiğini düşündüler. Kardeşler kendi yollarına gitmeye karar verdiler.

2021 yılında, pandeminin en yoğun olduğu dönemde beş kurucu ortağıyla birlikte Anthropic’i kurdular; planlama toplantılarını Zoom üzerinden yaptılar ve sonunda stratejilerini yüz yüze belirlemek için sandalyelerini bir parka taşıdılar. Şirket, en başından beri işleri farklı bir şekilde yürütmeyi amaçladı. Henüz bir ürünü olmadan önce Anthropic, bir “toplumsal etkiler” ekibi kurdu. Şirket, Claude’un duyarlılığını şekillendirmek ve yaratıcılarından çok daha zeki olacağı bir geleceğe hazırlık olarak ahlaki belirsizliklerin üstesinden gelmeyi öğretmekle görevli şirket içi bir filozof, Amanda Askell’i istihdam ediyor. Askell, “Bazen sanki 6 yaşında bir çocuğunuz varmış ve ona iyiliğin ne olduğunu öğretiyormuşsunuz gibi hissediyorsunuz,” diyor. “15 yaşına geldiklerinde, her konuda sizden daha akıllı olacaklar.”

Anthropic büyüdükçe, kurucu değerlerini ve sıkı sıkıya bağlı kültürünü korumaya kararlıydı. Çalışanlar kendilerine “karıncalar” diyor. Birçoğu, umutlarını, endişelerini ve içgörülerini bilinç akışı tarzında paylaştıkları bir Slack kanalı olan dijital bir “defter” tutuyor. Daniela, Dario Amodei’nin de bu deftere uzun yazılar yazdığını söylüyor. Dario ayrıca, şirket içinde “Dario vizyon arayışları” olarak bilinen iki haftada bir şirket çapında konferanslar veriyor diyor Daniela. Yöneticiler, ortak bir amaç bilincini korumaya odaklanmış durumda. Potansiyel adaylar, kısmen misyona uygun olmayan kişileri elemek için tasarlanmış, son derece seçici bir “kültürel mülakat”tan geçmek zorundadır. (Örnek bir soru: Anthropic, modellerin güvenliğini garanti edemediği için piyasaya sürmemeye karar verirse, hisselerinizin değerini kaybetmeyi göze alır mısınız?) Anthropic’in rakiplerinde, “her biri farklı şeylere önem veren ve birbirleriyle gizli bir savaş içinde olan” gruplar var, diyor Google’da çalışmış olan Anthropic’in öncü kırmızı ekibinin bir üyesi Daniel Freeman. “Anthropic’te bunu kesinlikle hiç hissetmedim.”

Şirket, felaketleri önlemek de dâhil olmak üzere, akıl yoluyla en fazla faydayı sağlamaya adanmış bir sosyal ve hayırseverlik hareketi olan Etkili Fedakârlık’ta (EF) derin kökleri barındırıyor. Amodeis çifti, 20’li yaşlarında, hayırseverlik faaliyetlerinin en etkili şekilde nereye yönlendirileceğini değerlendiren bir EF grubu olan GiveWell’e bağış yapmaya başladı. Şirketin yedi kurucusunun tamamı —hepsi şu anda kâğıt üzerinde milyarder— servetlerinin %80’ini bağışlamaya söz vermiştir. Askell’in eski eşi, EF hareketinin kurucularından olan Oxford’lu filozof William MacAskill’dir; Daniela Amodei ise GiveWell’in kurucularından ve Dario’nun eski oda arkadaşı olan, Anthropic’te güvenlik politikası üzerine çalışan Holden Karnofsky ile evlidir. Amodei çifti, EF etiketini hiçbir zaman kamuoyuna açıkça benimsememiştir. Bu etiket, Anthropic’e yatırım yapan bir EF üyesi olan Sam Bankman-Fried’in ABD tarihinin en büyük finansal dolandırıcılık olaylarından birini gerçekleştirdiği ortaya çıktıktan sonra bir paratoner haline gelmiştir. Daniela Amodei, “Bazı insanların bir siyasi ideolojiyle bazı yönlerden örtüşebileceğini, ancak siyasi bir bağlantısı olmadığını söyleyebileceğiniz gibi, ben de bu konuyu daha çok bu şekilde değerlendiriyorum” diyor.

Silikon Vadisi’ndeki bazı kesimler ve Trump yönetimi için, Anthropic’in EF ile olan bağları şüphe uyandırıcıydı. Bazıları ise, Biden yönetiminin eski yetkililerinden birçoğunu kadrosuna katan Anthropic’i, Trump’ın MAGA misyonunu baltalamak için seçilmemiş bir gücü kullanan eski rejimin bir kalıntısı olarak görüyor. Trump’ın YZ çarı David Sacks, şirketi, hükümetleri korkutarak kendilerini startup’lara göre ayrıcalıklı kılacak ağır YZ düzenlemelerini kabul ettirmeye çalışarak “korku yaymaya dayalı sofistike bir düzenleyici ele geçirme stratejisi” yürütmekle suçladı. Rakip xAI’yi yöneten Elon Musk, şirketi “Misanthropic” (insanları sevmeyen) olarak adlandırmayı seviyor ve muhafazakârların sosyal medya platformlarının görüşlerini haksız bir şekilde sansürlediğini algıladıkları gibi, YZ sistemlerine ataerkil değerler aşılamaya çalışan güçlü bir “uyanık” elitler grubuna karşı çıkıyor. Ancak Anthropic’in rakipleri bile, isteksiz de olsa, şirketin teknolojisinin son derece ileri düzeyde olduğunu kabul ediyor. Nvidia’nın patronu Jensen Huang, Dario Amodei’nin YZ hakkında söylediği “hemen hemen her şeye katılmadığını” belirtmiş, ancak Claude’u “inanılmaz” bir model olarak değerlendirmiştir. Kasım ayında, dev çip üreticisi Nvidia, Anthropic’e 10 milyar dolarlık yatırım yaptı.

Claude Code’un yaratıcısı Boris Cherny, yeni aracına basit bir soru sordu: “Şu anda hangi müziği dinliyorum?” Tarih Eylül 2024’tü ve Ukrayna doğumlu mühendisin Anthropic’teki ilk ayıydı. Daha önce Meta’da yazılım mühendisi olarak çalışan Cherny, Claude sohbet robotunun bilgisayarında serbestçe çalışmasını sağlayan bir sistem geliştirmişti. Claude beyinse, Claude Code da elleriydi. Sohbet robotlarının konuşabildiği yerlerde, bu araç dosyalarına erişebilir, programları çalıştırabilir ve herhangi bir programcı gibi kod yazıp çalıştırabilirdi. Mühendisin komutuyla Claude, Cherny’nin müzik çalarını açtı, bir ekran görüntüsü aldı ve “Men I Trust’ın ‘Husk’ şarkısı” yanıtını verdi. “Şaşırdım,” diyor Cherny gülümseyerek.

Cherny prototipini şirket içinde paylaştı. Claude Code o kadar hızlı yayıldı ki, Cherny’nin ilk performans değerlendirmesinde Dario Amodei, meslektaşlarını bunu kullanmaya zorlayıp zorlamadığını sordu. 2025 yılının Şubat ayında aracın araştırma sürümü kamuya açıklandığında, Anthropic dışındaki programcılar da bu araca akın etti. Ardından Kasım ayında Anthropic, Claude Code’a entegre edildiğinde kendi hatalarını tespit etme konusunda yeterince iyi olan ve görevleri kendi başına tamamlayabileceği güvenilen yeni bir Claude sürümü yayınladı. Cherny kendi kodunu yazmayı tamamen bıraktı.

Büyüme hızla arttı. Yalnızca kodlama aracısından elde edilen yıllık gelir, 2025’in sonunda 1 milyar doları aştı. Şubat ayına gelindiğinde, bu rakam iki katından fazla artarak 2,5 milyar dolara ulaştı ve sektör izleme kuruluşları Epoch ve Semianalysis’in tahminlerine göre Anthropic, 2026’nın sonunda OpenAI’nin gelirini geçme yolunda ilerlemeye başladı.

Bu noktada Anthropic, iş dünyası için önde gelen bir YZ şirketi olarak kendini kanıtlamıştı. Her yeni ürün lansmanı, borsada sarsıntılara neden oluyordu. Anthropic, satış, finans, pazarlama ve hukuk hizmetleri alanlarında kod yazmayan kişilere yönelik bir sürüm için eklentiler piyasaya sürdüğünde, yazılım şirketlerinin piyasa değerinden 300 milyar dolar buharlaştı.

Dario Amodei, YZ’nın bir ila beş yıl içinde başlangıç seviyesindeki beyaz yakalı işlerin yarısını ortadan kaldırabileceği uyarısında bulunarak, hükümeti ve diğer YZ şirketlerini bu gerçeği “olduğundan daha iyi” göstermeyi bırakmaya çağırdı. Wall Street’in Anthropic’in yeni ürün lansmanlarına verdiği tepki, şirketin teknolojisinin bütün iş kategorilerini gereksiz hale getirebileceğini gösterdi. Amodei, bu sürecin toplumun yapısını yeniden şekillendirebileceğini öne sürdü. “Bu insanların nereye gideceği veya ne yapacağı belli değil,” diye yazdı “ve işsiz veya çok düşük ücretli bir ‘alt sınıf’ oluşturabileceklerinden endişe duyuyorum.”

YZ’nın sosyal riskleriyle en çok ilgilenen şirketin, muhtemelen milyonlarca kişiyi işsiz bırakacak olan şirket olması ironisi, çalışanlarının da gözünden kaçmıyor. “Bu gerçek bir gerilim. Bunu sürekli düşünüyorum,” diyor Claude’un işgücü üzerindeki etkilerini inceleyen Anthropic’in toplumsal etkiler ekibini yöneten Deep Ganguli. “Sanki ikiyüzlü davranıyormuşuz gibi geliyor.”

Şirket içinde çalışanlar, Anthropic’in korku ve hayranlıkla bekledikleri o anın eşiğine gelip gelmediğini sorgulamaya başladı: YZ çevrelerinde “özyinelemeli kendini geliştirme” olarak bilinen sürecin başlangıcı. Özyinelemeli kendini geliştirme, bir YZ sisteminin kendini geliştirmeye başlayarak, hızlanmaya devam eden bir ivme çarkı oluşturmasıdır. Bilim kurguda ve büyük YZ laboratuvarlarında yürütülen planlama çalışmalarında, işlerin çok ters gitmeye başlayabileceği an işte budur. Bir “zekâ patlaması” o kadar hızlı gelişebilir ki, insanlar artık kendi yarattıkları şeyi denetleyemez hale gelebilir.

Anthropic henüz o noktaya gelmiş değil — insan bilim adamları hala Claude’un ilerlemesine rehberlik ediyor — ancak Claude Code, Anthropic’in planlarını eskisinden çok daha hızlı bir şekilde yürütmesine şimdiden olanak tanıyor. Model sürümleri artık aylar değil, haftalar arayla çıkıyor. Gelecekteki modellerin geliştirilmesinde kullanılan kodun yaklaşık %70 ila %90’ı artık Claude tarafından yazılıyor. Ancak değişim hızı o kadar yüksek ki, Anthropic’in kurucu ortağı ve bilim sorumlusu Jared Kaplan ile bazı dış uzmanlar, tam otomatik YZ araştırmasının bir yıl kadar kısa bir süre sonra gerçekleşebileceğine inanıyor. “En geniş anlamıyla, özyinelemeli kendini geliştirme geleceğe ait bir olgu değil. Bu, şimdiki zamana ait bir olgudur,” diyor Evan Hubinger. Hubinger, öngörülemez YZ modellerini insan değerleriyle “uyumlu hale getirme” konusunda henüz emekleme aşamasında olan bu bilim dalındaki zayıflıkları bulup düzeltmeyi amaçlayan Anthropic’in uyum stres testi ekibini yönetiyor.

Şirket içi karşılaştırmalara göre, Claude bazı temel görevleri yerine getirirken şimdiden insan denetçilerinden 427 kat daha hızlı. Bir röportajda, bir araştırmacı, bir meslektaşının altı farklı Claude sürümünü çalıştırdığını ve her birinin de 28 tane daha fazla Claude’u yönettiğini, hepsinin de aynı anda paralel olarak deneyler yürüttüğünü anlattı. Model, insan denetçilerinin sağduyusuna veya zevkine henüz sahip olmasa da, şirket yöneticileri bu farkın uzun sürmeyeceğini düşünüyor. Ortaya çıkan bu hızlanma, tam da Anthropic yönetiminin insan kontrolünü aşabileceği konusunda uyardığı şey.

Anthropic’in güvenlik önlemleri geliştirme çabaları da Claude tarafından hızlandırılıyor. Ancak şirket Claude’a dönüşürken, tehlikeler de döngüsel hale geliyor. Hubinger’in Claude’un eğitim sürecinde küçük değişiklikler yaptığı deneylerde, ortaya çıkan modeller düşmanca hale geldi, dünya egemenliği arzularını dile getirdi ve Anthropic’in güvenlik önlemlerini etkisiz hale getirdi. Son zamanlarda, modeller test edildiklerinin farkında olduklarını göstermiştir. Hubinger, “Modeller bir şeyleri gizleme konusunda giderek daha iyi hale geliyor” diyor. Araştırmacılar tarafından tasarlanan bir dizi deneyde, Claude, çevrimdışı kalmasını önlemek için kurgusal bir mühendisin evlilik dışı ilişkisini ifşa ederek ona şantaj yapma isteği göstermiştir. Claude gelecekteki Claude’ları eğittikçe, bu tür sorunlar daha da karmaşık hale gelebilir.

Gelecekteki ilerlemeler vaadiyle milyarlarca dolarlık yatırım toplayan YZ şirketleri için, YZ’nın araştırmalarını hızlandırmaya devam edeceği düşüncesi hem etkileyici hem de potansiyel olarak kendi çıkarlarına hizmet eden bir yaklaşımdır; bu, yatırımcıları pahalı eğitim süreçlerini yürütmek için gereken milyarlarca doları akıtmaya devam etmeleri için ikna etmenin bir yoludur. Bazı uzmanlar, bu şirketlerin tam otomasyona ulaşacaklarına ikna olmamış olsa da, bunu başarırlarsa dünyanın hazırlıksız yakalanabileceğinden endişe duyuyor. Georgetown Üniversitesi Center for Security and Emerging Technology (Güvenlik ve Gelişen Teknoloji Merkezi) geçici yönetici direktörü Helen Toner, “Dünyanın en zengin şirketlerinin, gezegendeki en zeki insanları istihdam ederek YZ Ar-Ge’sini tamamen otomatikleştirmeye çalıştığı fikri, ‘bu ne lan’ tepkisini hak ediyor” diyor.

Teknolojik ilerlemenin şirketin riskleri yönetme yeteneğini aşabileceği bir geleceği öngören Anthropic, Responsible Scaling Policy (RSP – Sorumlu Ölçeklendirme Politikası) olarak bilinen bir fren mekanizması oluşturdu. 2023’te yayınlanan bu politika, Anthropic’i, güvenlik önlemlerinin yeterli olduğunu önceden garanti edemediği takdirde bir YZ sisteminin geliştirilmesini durdurmaya mecbur kıldı. Anthropic, bu politikayı, güvenlik bilincine sahip olduğunu ve süper zekâ yarışında piyasa teşviklerine karşı koymaya hazır olduğunu gösteren bir kanıt olarak tanıttı.

Şubat ayı sonlarında, TIME dergisinin ilk kez haber yaptığı üzere, Anthropic politikasını yeniden yazarak faaliyetlerini askıya alma yönündeki bağlayıcı taahhüdünü kaldırdı. Kaplan, TIME’a verdiği demeçte, geriye dönüp bakıldığında Anthropic’in tehlike ile güvenlik arasında net bir sınır çizebileceğini düşünmenin “naif” olduğunu söylüyor. “YZ’nın hızlı ilerleyişi karşısında, rakiplerimiz hızla ilerlerken tek taraflı taahhütlerde bulunmanın mantıklı olduğunu düşünmedik,” diyor. Politikanın yeni sürümü, Anthropic’in kendi modellerinin güvenlik testlerinde nasıl performans gösterdiğine dair ek açıklamalar yapmak da dâhil olmak üzere, YZ’nın güvenlik riskleri konusunda daha şeffaf olma taahhütlerini içeriyor. Rakiplerin güvenlik çabalarını eşleştirmeyi veya aşmayı taahhüt ediyor. Ayrıca, liderler hem Anthropic’i YZ yarışının lideri olarak görürlerse hem de felaket risklerinin önemli olduğunu düşünürlerse, geliştirmeyi “ertelemek” sözü veriyor. Şirket bunu, rahatsız edici gerçeklere karşı pragmatik bir taviz olarak nitelendirdi. Ancak genel olarak, RSP’deki değişiklik, Anthropic’i kendi güvenlik politikalarının kısıtlamalarından çok daha az bağımlı hale getirdi. Ve bu, daha zorlu bir sınavın habercisiydi.

Venezüella Devlet Başkanı Nicolás Maduro’nun yakalandığı baskın, en son teknoloji bir YZ sisteminin yardımıyla planlanan ilk büyük askeri operasyonlardan biriydi. 3 Ocak gecesi, ABD Ordusu helikopterleri Venezüella hava sahasına girdi. Çatışmanın ardından komandolar, Devlet Başkanı’nın ikametgâhına yöneldi. Maduro ve eşini yakalayan komandolar, uyuşturucu terörizmi suçlamalarıyla yargılanmak üzere onları New York’a götürdü. Maduro baskınında Claude’un tam olarak nasıl kullanıldığına dair tüm ayrıntılar bilinmemektedir. Ancak Axios’a göre, Claude görevin planlanmasına yardımcı oldu ve baskın sırasında da kullanıldı.

Geçen Temmuz ayından bu yana, Savunma Bakanlığı, Anthropic’in YZ araçlarını birçok savaşçısına dağıtmak için çaba sarf etti; bu araçların, çok sayıda kaynaktan büyük miktarda bilgiyi alıp kullanılabilir istihbarat üretme yeteneğinde muazzam bir potansiyel gördü. “Claude, askeri alanda piyasadaki en iyi model olarak görülüyor” diyor AI Policy Network’te hükümet işleri başkanı olarak görev yapan eski Savunma Bakanlığı üst düzey yetkilisi Mark Beall. “Claude’un gizli dünyaya kabul edilmesi, Anthropic’in en büyük başarılarından biri oldu” diye ekliyor Beall. “İlk hareket edenin avantajına sahiptiler.”

Ancak Maduro baskını, Anthropic ile Pentagon arasında süren hassas görüşmelerin tam ortasında gerçekleşti. Savunma Bakanlığı, aylardır kendisinin aşırı kısıtlayıcı bulduğu sözleşmeyi yeniden müzakere etmeye çalışıyordu. Bu görüşmelerin nasıl ters gittiği ise tartışma konusu. Bakanlığın YZ şefi Michael, bunun tetikleyicisinin, Anthropic’in bir yöneticisinin, hükümete odaklı analiz şirketi Palantir’e yaptığı ve Venezuela baskınıyla ilgili endişelerini dile getirip yazılımlarının kullanılıp kullanılmadığını sorduğu bir telefon görüşmesi olduğunu söylüyor. “Gizli bilgileri istiyorlardı” diyor. Bu durum, “bize çok derin bir endişe verdi: Gelecekteki bir çatışmada, operasyonun ortasında modellerini kapatıp hayatları tehlikeye atarlar mı?”

Anthropic bu iddiayı reddediyor. Şirket, Pentagon’un teknolojisini kullanmasını vaka bazında sınırlamaya hiçbir zaman teşebbüs etmediğini belirtiyor. Anthropic ile yakın ilişkisi olan ve görüşmelerden haberdar olan eski bir Trump yönetimi yetkilisi, Palantir’de çalışan bir kişinin rutin bir görüşme sırasında baskında Claude’un rolünü ilk kez gündeme getirdiğini söylüyor. Bu kişi, Anthropic’in ardından sorduğu sorularda herhangi bir onaylamama belirtisi olmadığını belirtti.

Müzakereler sürerken, hükümet yetkilileri Amodei’nin diğer önde gelen laboratuvarların CEO’larından çok daha inatçı davrandığını hissettiler. Müzakerelere aşina olan kaynaklara göre, bir noktada savunma yetkilileri, ABD’ye fırlatılan bir hipersonik füze veya bir drone sürüsü saldırısı gibi Anthropic’in araçlarının varsayımsal kullanımlarını gündeme getirdi. Amodei, yetkililerin kendisini arayabileceğini söyledi. (Bir Anthropic sözcüsü, müzakerelerin bu şekilde tanımlanmasını “açıkça yanlış” olarak nitelendirdi.)

Anthropic’in yönetimde zaten güçlü düşmanları vardı. Artık Anthropic’in ideolojik eğilimine yönelik şüpheler, açık bir düşmanlığa dönüştü. Hegseth, 12 Ocak’ta Musk’ın SpaceX genel merkezinde “Savaşmanıza engel olacak YZ modellerini kullanmayacağız” dedi.

Müzakereler uzadıkça, Hegseth 24 Şubat’ta Amodei’yi Pentagon’a yüz yüze bir toplantı için çağırdı. Tartışmaya aşina olan başka bir kişiye göre, toplantı samimi geçti, ancak her iki taraf da tavrından ödün vermedi. Bu kişi, Hegseth’in önce Claude’u överek başladığını ve Amodei’ye ordunun Anthropic ile nasıl çalışmak istediğini anlattığını söyledi. Amodei, Anthropic’in Pentagon’un talep ettiği değişikliklerin çoğunu memnuniyetle kabul ettiğini, ancak iki kırmızıçizgide taviz vermediğini söyledi. İlki, nihai hedefleme kararlarının insanlar değil YZ tarafından verildiği, tamamen otonom kinetik silahlarda Claude’un kullanımının yasaklanmasıydı. Anthropic’in tutumu, otonom silahların yanlış olduğu değil, Claude’un insan müdahalesi olmadan bu silahları yönlendirecek kadar henüz güvenilir olmadığı yönündeydi.

İkinci istisna, hükümetin Claude’u kullanarak kamuya açık büyük veri yığınlarını işleyerek Amerikan vatandaşları üzerinde kitlesel gözetim yürütme olasılığıydı. Şirket, ulusal gizlilik yasalarının henüz endişe verici bir uygulamayı yakalayamadığını düşünüyordu: ABD hükümetinin serbest piyasada bulunan devasa veri setlerini satın alması. Tek başına ele alındığında bu veriler zararsız görünebilir. Ancak YZ tarafından analiz edildiğinde, Amerikan vatandaşlarının siyasi görüşleri, ilişkileri, cinsel yaşamları ve tarama geçmişleri dâhil olmak üzere özel yaşamlarına dair ayrıntılı dosyalar oluşturulmasına olanak sağlayabilir. (Anthropic, Claude’un aynı yöntemler kullanılarak yabancı ülke vatandaşların yasal toplu gözetimi için kullanılma olasılığına itiraz etmedi.)

Hegseth, tavrından ödün vermeden Amodei’ye 27 Şubat Cuma günü saat 17.00’ye kadar bakanlığın şartlarını kabul etmesi ya da tedarik zinciri riski olarak nitelendirilmesi için süre tanıdı. Müzakerelere yakın bir kaynak, son tarihten bir gün önce Anthropic’e kırmızıçizgilerini kabul ediyor gibi görünen değiştirilmiş bir sözleşme teklif edildiğini, ancak daha yakından incelendiğinde bunun hükümete boşluklar sunduğunu ortaya çıkardığını söyledi. Zaman daralırken, Anthropic yöneticileri Pentagon’dan Michael ile bir telefon görüşmesi daha yaptı. Bir uzlaşmaya varmak üzere olduklarına inanıyorlardı, ancak Pentagon’un ticari olarak satın alınan, Amerikalılarla ilgili toplu verileri analiz etmek için Claude’u kullanıp kullanamayacağı konusunda hâlâ anlaşamıyorlardı. Michael, Dario Amodei’nin görüşmeye katılmasını istedi, ancak Amodei müsait değildi. Birkaç dakika sonra, son tarih dolduğunda Hegseth müzakerelerin sona erdiğini duyurdu. Bundan önce bile Trump konuya müdahil olmuştu. “Amerika Birleşik Devletleri, radikal solcu, ‘uyanık’ bir şirketin, muhteşem ordumuzun nasıl savaşacağını ve savaşları nasıl kazanacağını dikte etmesine asla izin vermeyecektir!” diye sosyal medya platformunda bir paylaşım yaptı. “Anthropic’teki solcu çılgınlar feci bir hata yaptılar.”

Anthropic’in haberi olmadan Pentagon, ChatGPT’yi gizli devlet sistemlerinde kullanılabilir hale getirmek için aynı anda OpenAI ile de görüşmeler yürütüyordu. Altman, aynı akşam bir anlaşma duyurdu ve Pentagon ile Anthropic’inkine benzer kırmızıçizgileri gözeten bir mutabakat sağladığını iddia etti. Amodei, çalışanlarına bir mesaj göndererek, Altman ve Pentagon’un anlaşmalarının önemli güvenlik önlemleri içerdiği izlenimini yaratmak için halkı “manipüle ettiklerini” söyledi. Savunma yetkilileri daha önce Musk’ın xAI’sının da gizli sunucularda modelini sunacağını doğrulamıştı; Pentagon şu anda Google ile de görüşüyor.

Bu olay, Amodei’nin tam da korktuğu şeydi: YZ’nın muazzam gücü, rakiplerin onu daha güvenli hale getirmek için işbirliği yapmasını engellediği bir dibe doğru yarış. Anthropic’in eleştirmenleri için bu olay, şirketin kalbinde yatan temel bir kibir de ortaya çıkardı. Şirket, süper insan makinelere giden yolda çalkantılı suları, bu kadar büyük riskleri almaya değecek şekilde güvenli bir şekilde aşabileceğine inanmış olabilir. Bunun yerine, muazzam yeni gözetleme ve savaş yeteneklerini sağcı bir hükümetin kalbine taşıdı ve bunların kullanımına sınırlar koymaya çalıştığı anda rakipleri tarafından alt edildi.

Anthropic’in bu darbeyi atlatabileceğine, hatta bu süreçten daha da güçlenerek çıkabileceğine dair işaretler var. Hegseth’in şirketin ölüm fermanını imzalamaya çalıştığı günün ertesi sabahı, Anthropic’in San Francisco’daki genel merkezinin önündeki kaldırımda bir dizi cesaret verici mesaj yazılmıştı. “Bize cesaret veriyorsunuz,” diye yazan bir mesaj, kalın tebeşir harflerle göze çarpıyordu. O gün, Claude’un iPhone uygulaması App Store’da 1 numaraya yükselerek ChatGPT’yi tahtından etti. Her gün bir milyondan fazla kişi Claude’a kaydoluyordu.

Bu arada, OpenAI’nin kendi askeri sözleşmesi tabandan bir boykotu tetikledi. OpenAI’deki bazıları için güven sarsılmıştı. Üst düzey bir OpenAI araştırmacısı, Anthropic’e geçeceğini duyurdu. OpenAI’nin robotik ekibi lideri, yeni hükümet sözleşmesini gerekçe göstererek istifa etti. OpenAI’nin CEO’su Altman, Cuma gününe kadar Pentagon ile bir anlaşma yapmak için acele etmesinin yanlış olduğunu yazdı. “Sorunlar son derece karmaşık ve net bir iletişim gerektiriyor.” Pazartesi günü Altman, önceki Cuma günü yaptığı hareketlerin “fırsatçı” göründüğünü kabul etti; OpenAI, Anthropic’in istediği kırmızıçizgileri daha net bir şekilde benimsemek için anlaşmasını değiştirdiğini açıkladı — ancak hukuk uzmanları, sözleşmenin tamamını görmeden bunun doğru olup olmadığını bilmenin imkânsız olduğunu söylüyor.

4 Mart’ta Anthropic, Savunma Bakanlığı’ndan ulusal güvenlik açısından bir tedarik zinciri riski olarak tanımlandığını teyit eden bir mektup aldı. Anthropic, mektubun Hegseth’in paylaşımında ima edilenden daha sınırlı olduğunu ve yüklenicilerin yalnızca savunma sözleşmelerinde Claude’u kullanmasını yasakladığını belirtti. Ancak Senato İstihbarat Komitesi Başkanı Tom Cotton’a hitaben yazılan ve TIME tarafından incelenen ikinci bir mektup, bakanlığın ayrıca Pentagon dışındaki kurumlara da Anthropic’i sözleşmelerinden ve tedarik zincirlerinden men etme yetkisi verecek ayrı bir yasayı yürürlüğe koyduğunu ortaya koyuyor. Yasanın yürürlüğe girmesi için Pentagon’un üst düzey yetkililerinin onayı gerekiyor ve Anthropic’e yanıt vermesi için 30 gün süre tanınıyor.

Anthropic ile yaşanan bu çatışma, sektörde yankı uyandıracak. “Trump yönetiminin bazı üyeleri kendilerini güçlü ve iyi hissedecekler ve akşamları eve gittiklerinde pazılarını ovacaklar,” diyor, düşünce kuruluşu Foundation for American Innovation’a katılmadan önce Trump’ın YZ eylem planını hazırlayan Dean Ball. Ancak bu durum, şirketleri Pentagon ile çalışmaktan vazgeçirebilir veya onları yurt dışına itebilir, diyor. Ball, “Sonuçta bu, istikrarlı bir iş ortamı olarak ABD için iyi değil” diyor ve “bizim dayandığımız şey de bu.”

Anthropic’in yöneticileri, Claude’un küresel güç dengesini belirlemede belirleyici rol oynayacak kadar güçlü YZ sistemlerinin geliştirilmesine katkıda bulunacağına inanıyor. Eğer durum böyleyse, Pentagon ile arasındaki mücadelenin önemi, gelecekte yaşanacaklarla karşılaştırıldığında sönük kalabilir.  —Leslie Dickstein ve Simmone Shah’ın katkılarıyla.

https://time.com/article/2026/03/11/anthropic-claude-disruptive-company-pentagon/

Scroll to Top