Değer, makinenin içinde veya kafatasının içinde değil, ikisi arasındaki bağlantıda yatar.
Teknoloji ve İnsan Üzerine Deneme / Barton Friedland / Mart 2026
Barton Friedland, yapay zekanın ölçeklenmesiyle insan yargısını destekleyen mimariler geliştiren Luminous Group’un kurucusudur. Warwick Business School’daki doktora araştırmasında, hesaplama teknolojilerinin liderlik ve örgütsel karar alma süreçlerine nasıl katıldığını incelemiştir.
Editörün notu: Noema, yazılarında yapay zeka kullanımına ilişkin şeffaf bir yaklaşım sergiliyor. Orijinal, insan tarafından üretilen fikirleri yayınlıyoruz ancak belirli durumlarda yetkilendirilmiş ve açıklanmış yapay zeka kullanımına izin veriyoruz. Ayrıntılar ve politikamız için lütfen bu yazının sonuna bakın.
Bilinç, hesaplamanın değil, yaşamın bir özelliğidir. Beyinler etten yapılmış Turing makineleri değildir. Simülasyon somutlaştırmaz. Elektromanyetik alanlar, kendi kendini sürdüren organizasyon, çürümeye karşı düzeni korumak için yapılan sürekli biyolojik çalışma – bunların hiçbiri silikonda aslına sadık bir şekilde yeniden üretilemez.
Sinirbilimci Anil Seth, Berggruen Ödülü kazanan ” Bilinçli Yapay Zekanın Mitolojisi ” adlı makalesinde bu argümanı savunuyor . Okuyucu, makaleyi bitirdiğinde rahatlıyor: Yapay zeka bilinçli değil. Liberal hümanist düzen bozulmamış durumda; insanlar en üstte, makineler araç olarak, bilinç ise biyolojik zarların içinde güvenli bir şekilde muhafaza ediliyor. Birkaç aşırı heyecanlı teknoloji uzmanının iddiaları dışında hiçbir şey bozulmadı.
Peki bu bize Pazartesi sabahı ne yapmamız gerektiği konusunda ne söylüyor?
Bu makale bize insan-yapay zeka işbirliğinin ne ürettiğini söylemiyor . Bu işbirliğinin değerinin ne olduğunu söylemiyor. Yanlış yaptığımızda nelerin kaybedildiğini söylemiyor. Ve en önemlisi, makinelerin hissedip hissedemeyeceğini tartışırken, insan zekasının geliştiği koşulları yok edip etmediğimizi söylemiyor.
Seth’in belirttiği gibi, zeka eylemle ilgiliyken, bilinç varoluşla ilgilidir ; bu ayrım çok sık göz ardı edilir. Zekayı bilinçle birleştirmek – yeterince zeki olan her şeyin aynı zamanda farkında olması gerektiği varsayımı – tam olarak duyarlı sohbet robotları fantezilerini ve robotların acı çekmesiyle ilgili endişeleri doğuran kavramsal hatadır.
Ancak Seth, bir ikili yapıyı çözdükten sonra bir diğerini kuruyor. Makalesi, özelliklerin ya biyolojik organizmalara ya da hesaplama sistemlerine ait olduğu bir çerçeve içinde işliyor. Bilinç biyolojiktir. Hesaplama algoritmiktir. Soru şu ki, biri diğerini doğurabilir mi? Seth, ikna edici bir şekilde, cevabın muhtemelen hayır olduğunu savunuyor.
50 yıldan uzun bir süre önce bu ikiliğin ötesini gören üç yayın var: Douglas Engelbart’ın ” İnsan Zekasını Geliştirme “, JCR Licklider’ın ” İnsan-Bilgisayar Sinerjisi ” ve Ted Nelson’ın ” Bilgisayar Kütüphanesi/Rüya Makineleri “. Her biri, insan düşüncesini atlamak yerine derinleştirmek üzere tasarlanmış hesaplama yapılarını öngördü ve Seth’in çerçevesinin ulaşamadığı soruyu sordu: İnsan yeteneği ve hesaplama gücü birbirinin yerine geçmek yerine birleşecek şekilde düzenlendiğinde ne ortaya çıkar? İnsan yeteneğini geliştirmeyi iddia eden alan, görünüşe göre, geliştirmenin ne anlama geldiğini tanımlayan çalışmaları okumamış.
Bir insan bir yapay zekâ sistemiyle çalıştığında — bir radyolog tanı aracıyla taramaları okuduğunda, bir analist hesaplama ortağıyla finansal bir model oluşturduğunda, bir mimar üretken bir sistemle yapısal varyasyonları test ettiğinde — katılımcıların hiçbirinde bulunmayan bir şey ortaya çıkar. Bu bilinç değildir. Makine hiçbir şey hissetmez. Ancak bu sadece hesaplama da değildir. Bu, eyleme geçirilmiş zekâdır: yerleşik, dağıtılmış, yönlendirilmiş ve her iki tarafa da indirgenemez.
Seth’in bahsettiği bilişsel bilim – bedenlenmiş, yerleşik, eyleme geçirilmiş ve genişletilmiş bilişin 4E geleneği – doğrudan bu alana işaret ediyor. Bilinç alanındaki uzmanlar, bilişin insanlar, araçlar ve ortamlar arasında dağıldığını ; zeki eylemin önceden planlanmış eylemlerin uygulanması değil, gelişen durumlara sürekli bir yanıt olduğunu ; ve zihnin kafatasının ötesine, birlikte çalıştığı araç ve teknolojilere uzandığını göstermiştir. Bunlar marjinal görüşler değil. Çağdaş bilişsel bilimdeki baskın hareketi temsil ediyorlar.
Seth, bu literatürü kullanarak bilincin alt yapıdan bağımsız olamayacağını, bedenin önemli olduğunu, zihni onu üreten canlı sistemden soyutlayamayacağımızı savunuyor. Bu sonuca varmakta haklı. Ancak açılan kapıdan asla geçmiyor. Eğer biliş dağıtılmış, uygulanmış ve genişletilmiş ise, ilgili analiz birimi bireysel beyin (biyolojik veya yapay) değil, zekanın işlediği konfigürasyondur . Soru, makinenin bilinçli olup olmadığı değil. Soru, konfigürasyonun ne ürettiği ve iyi bir şekilde üretme koşullarını koruyup korumadığımız veya yok edip etmediğimizdir.
Eğer yapay zekâ bilinçli değilse – yani özünde bir anlam sunmuyorsa, içsel bir yönelime sahip değilse, özerk bir anlayışa sahip değilse – o zaman insan-yapay zekâ işbirliğinin her eylemi, insan katılımcıya özel bir talep getirir. İnsan, işbirliği alanında sürekli olarak anlamı yansıtmalı, test etmeli ve istikrara kavuşturmalıdır. Bağlam kayar. Tutarlılık düzleşir. İnsanın niyetiyle uyumlu görünen çıktılar ince bir şekilde sapar. İnsan bunu fark etmeli, yeniden sabitlemeli ve yönlendirmelidir. Bu, daha iyi mühendislikle çözülecek mevcut yapay zekâ sistemlerinin bir hatası değildir. Anlamadan işlem yapan varlıklarla çalışmanın kalıcı bir yapısal özelliğidir .
“Zekayı bilinçle aynı kefeye koymak, tam olarak duyarlı sohbet robotları fantezilerini ve robotların çektiği acılarla ilgili kaygıları doğuran kavramsal hatadır.”
Yapay zekâ sistemleriyle ciddi olarak çalışan herkes bunu çok iyi bilir. Bu deneyim bilişsel olarak oldukça zorlayıcıdır. Sürekli dikkat, yorumlayıcı yargı ve belirli bir tür varoluş gerektirir; anlamı, sizin için anlam ifade etmeyen etkileşimler boyunca istikrarlı tutma isteği. Kelimenin tam anlamıyla bir iştir: tutarlılığı garanti etmeyen bir alanda sürekli bilişsel emek harcamak.
Ve bilinç tartışmasının gizlediği şey şu: Bu çalışma ekonomik olarak değerlidir .
Stanford, Beth Israel Deaconess Tıp Merkezi ve Virginia Üniversitesi’nde uzaktan ve yüz yüze gerçekleştirilen randomize bir klinik çalışmada , geleneksel tanı kaynaklarıyla birlikte GPT-4’e erişim sağlanan hekimlerin, GPT-4’e erişimi olmayan hekimlere göre tanılarında daha doğru sonuçlar elde edemedikleri görüldü; hatta GPT-4 tek başına her iki grubu da %15’ten fazla geride bıraktı. Aynı yapay zeka. Aynı klinik görev. Ölçülebilir önemli bir fayda yok; çünkü düzenleme basitti: Teknoloji, tasarlanmış bir etkileşim, yapılandırılmış bir diyalog veya hekimin bağımsız muhakemesinin korunması olmaksızın mevcut iş akışlarına eklenmişti.
İş birliği yeniden tasarlandığında —klinisyen ve yapay zekanın bağımsız değerlendirmeler üretmesi, ardından anlaşmazlıkları ortaya çıkaran ve klinisyenin muhakemesini de dikkate alan bir diyalog yapısı oluşturulması— tanı doğruluğu yapay zeka olmadan %75’ten, iş birliğine dayalı yapay zeka ile %82-85’e yükseldi. Fark verilerde değildi. İnsan-yapay zeka düzenlemesinin kalitesindeydi : insanın yargısının iş birliğiyle korunup, güçlendirilip ve pekiştirilip pekiştirilmediği veya atlanıp, düzleştirilip ve nihayetinde aşındırılıp aşındırılmadığı.
Stockholm Ekonomi Okulu ve Cenevre Üniversitesi’ndeki araştırmacılar ve diğerleri, aynı yapay zekâ sistemini ilaç satış uzmanlarına uyguladı. Sonuçlar çarpıcıydı. Sistem, uzmanın bilişsel tarzına göre uyarlandığında —uzman yargısını korumak için otoriteyi, iş akışlarını ve teşvikleri yapılandırdığında— ortalama olarak müşteri görüşmeleri %40’tan fazla, satışlar ise %16 arttı. Aynı sistem, insanın nasıl düşündüğü dikkate alınmadan uygulandığında ise satışlar, yapay zekâsız temel seviyeye göre yaklaşık %20 düştü. Bu, hiç yapay zekâ olmamasından daha kötü bir sonuçtu.
Stratejik danışmanlıkta, kanıtlar daha da keskin bir hal alıyor. Harvard, MIT, Wharton ve Warwick’teki araştırmacılar, yapay zekâ ile çalışan ve çalışmayan 758 Boston Consulting Group (BCG) danışmanını inceledi . Yapay zekânın iyi bir şekilde halledebileceği görevlerde, yapay zekâ ile çalışanlar ortalama olarak %12 daha yüksek tamamlama oranına, %25 daha hızlı bitirme oranına ve %40 daha yüksek kalitede sonuçlara sahipti. Ancak yapay zekânın sahip olmadan işleyebileceği türden yargı gerektiren görevlerde, yapay zekâ destekli danışmanlar, tek başına çalışanlara göre önemli ölçüde daha kötü performans gösterdi. Teknoloji başarısız olmadı. Düzenleme başarısız oldu. İnsanlar, insan yargısının en çok gerekli olduğu görevlerde hesaplama yeteneğine başvurduğunda, iş birliği bir dezavantaj haline geldi.
Askeri terminolojide bunun bir adı var . Savunma stratejistleri, insanın yönettiği ve makinenin uyguladığı “sentor” sistemlerini, yapay zekanın yönettiği ve insanın onun önerilerini uyguladığı “minotor” sistemlerinden ayırır. Kullanılan terminoloji canlı, ancak yanlış bir tercihi gizliyor. BCG çalışmasının yazarlarından yapay zeka araştırmacısı Ethan Mollick, Substack’teki yazısında , net bir iş bölümü sürdüren sentorların, sentorun daha fazla uzmanlığa sahip olduğu yapay zeka destekli işlerde iyi performans gösterdiğini ve yapay zekanın yapabileceklerinin sınırında beceriler gerektiren görevlerde ise, insan ve makine katkısı arasındaki sınırın ortadan kalktığı kadar yapay zekayla derinlemesine bütünleşen “siborgların” da iyi performans gösterdiğini belirtiyor.
En kötü sonuçlar, Mollick’in sözleriyle, “direksiyon başında uyuyakalan” ve yargının en çok ihtiyaç duyulduğu anda sistemi yargıya bırakanlardan geldi. İnsan-bilgisayar etkileşimlerini inceleyen Lucy Suchman, özerkliğin ne insanlara ne de makinelere özgü bir özellik olmadığını, aksine çalıştıkları konfigürasyonlara ait olduğunu savunmuştur . Bunu ciddiye aldığınız anda sentor-minotor ikilemi ortadan kalkar. Soru, kimin sorumlu olduğu değil. Soru, konfigürasyonun, insan yargısının aktif, yönlendirici ve sistem saptığında müdahale edebilecek durumda kalmasını sağlayan koşulları koruyup korumadığıdır.
Yapay zekâda bilinç eksikliği sadece felsefi bir bulgu değildir. Ölçülebilir ekonomik sonuçları olan bir tasarım koşuludur . Bu, her insan-yapay zekâ sisteminin, insanın anlam oluşturma, yargılama ve tutarlılık sağlama kapasitesini koruyacak şekilde tasarlanması gerektiği anlamına gelir, çünkü bu düzenlemedeki başka hiç kimse bunu yapmayacaktır.
Seth bir mitolojiyi örnek veriyor: makinelere aşırı bilinç atfedilmesi. Büyük dil modellerinin (LLM’ler) duyarlı olduğuna, sohbet robotlarının içsel bir yaşamı olduğuna, yapay farkındalığın eşiğinde olduğumuza dair inanç, Seth’in savına göre, antropomorfizm, pareidolia ve dilin sahip olmadığı içselliği taklit etme cazibesinden doğan bir karışıklıktır.
“Eğer yapay zeka bilinçli değilse, insan-yapay zeka işbirliğinin her eylemi insan katılımcıdan belirli bir talepte bulunur.”
Ancak, yapay zekâ uygulamalarıyla ilgili kararların alındığı ortamlarda çok daha yaygın ve aynı derecede tehlikeli olan ikinci bir mitoloji daha var. Bu, otomasyon mitolojisidir: İnsan faktörünü ortadan kaldırmanın her zaman verimlilik artışı sağladığı inancı. Yargılamanın ortadan kaldırılması gereken bir maliyet olduğu. Yeteneğin, artan bir varlık yerine sabit bir girdi olduğu. Yapay zekânın amacının, şu anda insanlar tarafından yapılan görevleri daha hızlı ve daha ucuza gerçekleştirmek olduğu düşüncesi.
Bu mitoloji, kendisini mitoloji olarak ilan etmiyor. Yatırım getirisi hesaplamaları, personel azaltma hedefleri ve verimlilik gösterge panelleri gibi saygın kıyafetler içinde geliyor. Giderek artan bir şekilde, bizzat artırma (augmentation) olarak karşımıza çıkıyor. Tüm büyük yapay zeka şirketleri artık kendi LLM’lerinin hizmetlerini tanımlamak için “artırma” kelimesini kullanırken, tam tersi yönde hareket eden altyapılar inşa ediyorlar.
Son iki yıldaki her önemli platform sürümü – ajan çerçeveleri, kodlama ajanları, bilgisayar kullanımı, araştırma ajanları – aynı yörüngeyi izliyor: Yapay zekanın daha çok iş yapmasını, insanın daha az iş yapmasını sağlayın. Bunların hiçbiri insan ve yapay zeka arasındaki ilişkiyi ölçmüyor. Hiçbiri insan yeteneğinin gelişip gelişmediğini veya körelip körelmediğini ölçmüyor. Artırma terminolojisi ele geçirildi. Ancak adlandırdığı uygulama ele alınmadı. Mitoloji şunu soruyor: Neyi otomatikleştirebiliriz? Hiçbir zaman şunu sormuyor: Neyi yok ediyoruz?
Şubat 2025’te, ilk Antropik Ekonomik Endeks, insanlar ve yapay zeka asistanı Claude arasındaki 1 milyondan fazla konuşmayı analiz ederek, her birini kişinin yapay zekayı işi onun yerine yapması için mi (otomasyon) yoksa onunla birlikte düşünmesi için mi (artırma) kullandığına göre sınıflandırdı. Araştırma, insanların %57 oranında yapay zekaya iş devretmek yerine onunla birlikte düşündüğünü ortaya koydu.
Sonraki raporlar, yapay zeka yetenekleri geliştikçe bu dengedeki değişimleri takip etti. Otomasyon, 2025 ortalarında kısa bir süreliğine artırmayı geride bıraktı, ardından tekrar geriye düştü. Ancak bu örüntü oldukça açıklayıcı: Platformlar giderek daha otonom araçlar sunsa bile, bireysel kullanıcılar arasında otomasyona doğru kesin bir eğilim hiçbir zaman olmadı. Yine de kuruluşlar sürekli olarak diğer yöne doğru eğilim gösteriyorlar – bunun nedeni otomasyonun üstün getiriler sağlaması değil, maliyet düşürme konusunda kurumsal güce sahip olmaları ancak yetenek geliştirme konusunda yetersiz olmaları ve satın aldıkları platformların tam olarak bu eğilimi ödüllendirmek üzere tasarlanmış olmasıdır.
Ekonomist Carl Benedikt Frey’in ” Teknoloji Tuzağı ” adlı eserindeki tarihsel analizi, bunun tekrarlayan bir örüntü olduğunu ortaya koyuyor. Birinci Sanayi Devrimi, ekonomistlerin “Engels Duraklaması” olarak adlandırdığı, işçi başına üretimin %46 artarken ücretlerin sadece %12 arttığı bir dönemi ortaya çıkardı. Destekleyici teknolojilerin hakim olduğu İkinci Sanayi Devrimi, geniş çapta paylaşılan bir refah yarattı. Yerini alan teknolojilerin hakim olduğu üçüncü Sanayi Devrimi ise durgun ücretler ve artan eşitsizlikle aynı zamana denk geldi. Bu örüntü teknolojik değil, kurumsaldır: Toplumlar artırmaya yönelik çerçeveler oluşturduğunda, zenginlik dağılır; otomasyona yöneldiklerinde ise yoğunlaşır.
Seth’in makalesi, yalnızca yapay zekanın eksikliklerine odaklanarak, istemeden de olsa bu ikinci mitolojiyi güçlendiriyor. Bize makinelerin hissetmediğini söylüyor. Bize, düzenlemedeki insan varlığının değer yarattığı yer olduğunu söylemiyor. Her iki mitoloji de – makinelere aşırı bilinç atfetmek ve işbirlikçi alanda insan varlığına az değer atfetmek – aynı amaca hizmet ediyor. Dikkatleri yapay zekanın ne olduğuna odaklıyorlar, insan yeteneğinde neyi koruyup geliştirdiğine değil .
Bu masum bir durum değil. Nesne yönelimli soru – Yapay zeka nedir? – rahat, kontrol edilebilir ve felsefi açıdan tatmin edicidir. İlişkisel soru – İnsan-yapay zeka düzenlemesi ne üretir ve hangi koşullar altında iyi sonuç verir? – rahatsız edici, kontrol edilemez ve ölçütlerimizi, kurumlarımızı ve değer anlayışımızı yeniden düzenlememizi gerektirir.
Değerin nerede yattığını – makinenin içinde, insan kafatasının içinde değil, aralarındaki düzenlemede – anlayabilen kurumlar inşa etmeliyiz. Yargının nasıl birleştiği koşullarda. Kesintili etkileşimler arasında tutarlılığı sürdüren dikkat kalitesinde. İnsanların anlam çıkarma, onu gerçeklikle karşılaştırma ve kısıtlamalar altında yeniden gözden geçirme kapasitesinde. İnsanlar ve makineler ortak bir yönelimle koordine olduklarında ortaya çıkan indirgenemez ilişkisel zekada.
Yapay zekâ sistemleriyle başarılı bir şekilde çalışmış herkes, düşüncenin tek başına olabileceğinden farklı bir şekilde ilerlediği anın bu olduğunu bilir. Bu felsefi bir soru değil. Bu ekonomik bir soru. Bu bir tasarım sorusu ve kurumsal bir zorunluluk; sonuçları önümüzdeki on yıllar boyunca, tüm entelektüel cazibesine rağmen bilinç tartışmasının ele alamayacağı şekillerde katlanarak artacak.
“Değerin nerede yattığını – makinenin içinde değil, insan kafatasının içinde değil, ikisi arasındaki düzenlemede – anlayabilen kurumlar inşa etmeliyiz.”
Avrupa Birliği bunu fark etmeye başladı. AB Yapay Zeka Yasası’nın 14. maddesi , yüksek riskli yapay zeka sistemlerinin “doğal kişiler tarafından etkin bir şekilde denetlenebilecek” şekilde tasarlanmasını şart koşuyor. Yönetmelik, insanların anlama, yorumlama ve müdahale etme yeteneğine sahip olmaları gerektiğini öngörüyor. Ancak bunun nasıl yapılacağını belirtmiyor. Bu tür bir denetimi mümkün kılacak altyapının ne olacağını, varlığını hangi ölçütlerin göstereceğini veya bir kuruluşun anlamlı denetim ile performans arasındaki farkı nasıl anlayacağını belirtmiyor. Ve uygulama son tarihi, tek bir kuruluştan bile uyumluluk göstermesi istenmeden önce, Ağustos 2026’dan Aralık 2027’ye ertelendi.
“İnsan merkezli yapay zeka” ifadesi, Avrupa politikalarında sanki bu hedefi adlandırmak, onu inşa etmekle eşdeğermiş gibi sıkça karşımıza çıkıyor. Oysa durum böyle değil. Düzenlemelerde bir dayanak noktası oluşturuldu. Ancak bunun üzerine kurulacak mimari henüz hayal bile edilmiyor. Muhtemelen, her tüketilen token ile gelirleri artan şirketlerden de gelmeyecek.
Daha acil olan mitoloji, bilinçli makineler fantezisi değil. Daha acil olan, insan varlığının döngüde katlanarak artan değerin kaynağı değil, bir maliyet olduğu yönündeki sessiz, yaygın ve ekonomik olarak yıkıcı varsayımdır. Yeteneğin geliştirilmek yerine tüketildiği, zekanın amacının yargılama ihtiyacını ortadan kaldırmak olduğu, yargılamanın derinleştirilmesi olmadığıdır.
Bu mitolojinin tehlikeli olması için Berggruen Ödülü’ne ihtiyacı yok. Her Pazartesi sabahı, geliştirmesi gerekeni otomatikleştiren, mümkün kıldığı şeyleri değil ortadan kaldırdığı şeyleri ölçen, verimliliği zekâyla karıştıran ve sürtüşmenin yokluğunu düşüncenin varlığıyla özdeşleştiren her kuruluşta işliyor.
Bilinç sorunu çözüldü, ya da çözülmek üzere. Geriye kalan soru – yapay zekanın kurumsal zekanın motoru mu yoksa kurumsal çürümenin hızlandırıcısı mı olacağını belirleyecek olan soru – insan yeteneğinin nasıl katlanarak arttığını görmeyi, ölçmeyi ve korumayı öğrenip öğrenemeyeceğimizdir. Yapay zekanın ne olduğu değil, neyi mümkün kıldığıdır. Ve onu koruyamadığımız zaman – yanlış soruyu tartışırken, telafisi mümkün olmayan, görünmez bir şekilde – neyi kaybettiğimizdir.
https://www.captechconsulting.com/articles/2026-tech-trends-the-only-constants-are-ai-and-change
