Bir LLM öğrencisine karmaşık bir soru sormadan önce iki kere düşünün.
Mack DeGeurin / 19 Haz 2025
Son yıllarda araştırmacılar ve iklim savunucuları, yapay zekanın çevre üzerindeki etkisi konusunda alarm veriyor . OpenAI ve Google tarafından sunulanlar gibi gelişmiş ve giderek popülerleşen büyük dil modelleri (LLM’ler) , sunucuları soğutmak için önemli miktarda elektrik ve su tüketen devasa veri merkezlerinde bulunuyor. Birisi bu platformlardan birine her soru veya ifade yazdığında, bir yanıt oluşturmak için kullanılan enerji ölçülebilir miktarda potansiyel olarak zararlı CO₂ üretiyor. Ancak Frontiers in Communication’da yayınlanan yeni bir araştırmaya göre , bu istemlerin hepsi aynı çevresel etkiye sahip değil. Hatta yakın bile değil.
Çalışma, her biri eğitim verilerinin boyutu bakımından farklılık gösteren 14 farklı LLM programını inceledi ve performanslarını farklı konu alanlarından 500 soruluk standart bir set kullanarak değerlendirdi. Her model, sorgu başına belirli sayıda “düşünme belirteci” üretir ve bu belirteçler CO₂ emisyonlarıyla ilişkilidir. Araştırmacılar yanıtları karşılaştırdıklarında, daha büyük eğitim setlerine sahip ve işlenip yanıt vermesi daha uzun süren daha karmaşık “akıl yürütme modellerinin”, daha küçük ve daha verimli “özlü modellere” göre önemli ölçüde daha fazla CO₂ ürettiğini buldular. Bazı durumlarda, akıl yürütme modelleri daha özlü benzerlerine göre 50 kata kadar daha fazla emisyon üretti.
Modellerin yanı sıra, soruların ürettiği CO₂ miktarı da konuya göre değişiyordu. İleri cebir veya felsefe gibi daha karmaşık veya açık uçlu sorular, lise tarih soruları gibi daha basit sorulara göre daha yüksek karbon emisyonu üretme eğilimindeydi. Bu bulgular, yapay zeka modellerinin enerji tüketimindeki artışa sıklıkla göz ardı edilen katkılarına daha fazla ışık tutuyor .
Yapay zekanın düşündüğümüzden daha fazla enerjiye ihtiyacı olacak.
Hochschule München Uygulamalı Bilimler Üniversitesi’nde doktora öğrencisi ve makalenin yazarı olan Maximilian Dauner, yaptığı açıklamada, “Sorgulama eğitimi almış LLM’lerin çevresel etkisi, büyük ölçüde onların muhakeme yaklaşımları tarafından belirleniyor ve açık muhakeme süreçleri enerji tüketimini ve karbon emisyonlarını önemli ölçüde artırıyor” dedi.
Akıl yürütme modelleri nelerdir?
Bazen “düşünme modelleri” olarak da adlandırılan akıl yürütme modelleri, mantık, adım adım çözümlemeler veya ayrıntılı talimatlar gerektiren daha karmaşık görevleri çözmek için optimize edilmiş büyük LLM’leri ifade eder. Bu modeller genellikle farklı isimlerle anılır. Örneğin, OpenAI’da GPT-4o ve GPT-4o-mini “genelleştirilmiş” modeller olarak kabul edilirken, o1 ve o3-mini gibi versiyonlar akıl yürütme modelleri olarak sınıflandırılır.
Muhakeme modelleri, bazı LLM araştırmacılarının “düşünce zinciri” işleme olarak adlandırdığı bir yöntemi kullanır ve bu da hız ve netliğe öncelik veren genelleştirilmiş modellere göre daha bilinçli yanıtlar vermelerini sağlar. Nihai amaç, muhakeme modellerinin daha insan benzeri yanıtlar üretmesidir. Bu modelleri kullanan herkes için bunun en belirgin yan etkisi, muhakeme modellerinin yanıt üretmesinin daha uzun sürmesidir.
Microsoft Yönetim Kurulu Başkanı ve İcra Kurulu Başkanı Satya Nadella (solda), 19 Mayıs 2025’te Seattle, Washington’da düzenlenen Microsoft Build 2025 konferansına video yoluyla katılan OpenAI İcra Kurulu Başkanı Sam Altman ile konuşuyor. (Fotoğraf: Jason Redmond / AFP)
Microsoft Yönetim Kurulu Başkanı ve İcra Kurulu Başkanı Satya Nadella (solda), Microsoft Build 2025 konferansı sırasında OpenAI İcra Kurulu Başkanı Sam Altman ile konuşuyor. Görsel: Jason Redmond / AF P JASON REDMOND
Araştırmacılar, akıl yürütme modellerinin, daha özlü modellere kıyasla CO₂ emisyonlarıyla ilişkili önemli ölçüde daha fazla belirteç ürettiğini buldu. (Belirteçler, LLM’nin anlayabileceği sayısal gösterimlere dönüştürülen kelimeleri veya kelime parçalarını ifade eder.)
Testler iki aşamada gerçekleşti. İlk aşamada, araştırmacılar modellere aynı çoktan seçmeli soruları sordular. Bir sonraki serbest yanıt ifadesinde ise modellerin yazılı yanıtlar vermesi sağlandı. Ortalama olarak, muhakeme modelleri soru başına 543,5 jeton üretirken, özlü modeller yalnızca 37,7 jeton üretti. İnceledikleri en doğru muhakeme modeli olan ” Cogito “, özlü yanıtlar için optimize edilmiş benzer boyuttaki modellerden üç kat daha fazla CO₂ üretti.
Araştırmacılar makalede, “Çevresel bir bakış açısından, akıl yürütme modelleri, öncelikle yüksek token üretimi nedeniyle sürekli olarak daha yüksek emisyonlar sergiledi” diye yazıyor.
Kişi başına emisyon farkı önemsiz görünse de, ölçeklendirildiğinde gerçek bir fark yaratabilir. Araştırmacılar, DeepSeek’in R1 modelinden 600.000 soruyu yanıtlamasını istemenin, Londra’dan New York’a gidiş-dönüş bir uçuşla yaklaşık aynı miktarda CO₂ üreteceğini tahmin ediyor. Buna karşılık, akıl yürütmeyen Qwen 2.5 modeline aynı emisyon seviyesine ulaşmadan önce üç kat daha fazla soru sorabilirsiniz.
Araştırmacılar, bulgularının genel olarak LLM doğruluğu ile çevresel sürdürülebilirlik arasında temel bir dengeyi vurguladığını söylüyor.
Araştırmacılar, “Model boyutu arttıkça doğruluk da artma eğilimindedir,” dedi. “Ancak bu kazanım, hem CO₂ emisyonlarında hem de üretilen token sayısında önemli bir artışla da bağlantılı.”
Enerjiye aç yapay zeka modelleri yeni enerji santrallerinde patlamaya yol açıyor
Bulgular, teknoloji şirketleri arasında giderek daha gelişmiş yapay zeka modelleri geliştirmek için kıyasıya bir küresel yarışın ortasında ortaya çıktı. Apple, yalnızca geçen yıl içinde, önümüzdeki dört yıl içinde üretim ve veri merkezlerine 500 milyar dolar yatırım yapmayı planladığını duyurdu. Benzer şekilde, OpenAI, SoftBank ve Oracle’ın ortak girişimi olan Project Stargate de yapay zeka odaklı veri merkezlerine 500 milyar dolar harcama sözü verdi. Araştırmacılar, altyapıdaki bu artışın zaten aşırı yüklenmiş enerji şebekelerine daha fazla yük getirebileceği konusunda uyarıyor .
Özellikle yapay zeka uygulamaları, yeni veri merkezlerinin enerji tüketiminde büyük bir rol oynuyor. MIT Technology Review’da yayınlanan yakın tarihli bir rapor , 2017 yılı civarında veri merkezlerinin, özellikle karmaşık yapay zeka hesaplamaları için tasarlanmış, daha fazla enerji tüketen donanımlar kullanmaya başladığını belirtiyor. Enerji kullanımı bundan sonra hızla arttı. Elektrik Gücü Araştırma Enstitüsü (EPRI), gelişmiş yapay zeka modellerini destekleyen veri merkezlerinin, on yılın sonunda Amerika Birleşik Devletleri’nin toplam enerji talebinin %9,1’ine kadarını karşılayabileceğini tahmin ediyor ; bu oran bugün yaklaşık %4,4.
Şirketler, bu artan enerji talebini karşılamak için yeni yollar bulmak için çabalıyor. Meta , Google ve Microsoft, daha fazla elektrik üretmek için nükleer santrallerle ortaklık kurdu. OpenAI’nin ana ortaklarından biri olan Microsoft, bir zamanlar ABD tarihinin en kötü reaktör kazasına sahne olan Pensilvanya’daki Three Mile Island nükleer tesisinden enerji sağlamak için 20 yıllık bir anlaşma bile imzaladı .

Meta, daha az fosil yakıt kullanan bir enerji üretim yöntemi olarak jeotermal teknolojiye de büyük yatırımlar yapıyor . Yapay zeka çağının bir ” enerji atılımı ” gerektireceğini söyleyen OpenAI CEO’su Sam Altman gibi diğerleri ise deneysel nükleer füzyona yatırım yapıyor. Bu yatırımlar şirketlerin ilerleme kaydetmesine yardımcı olabilir, ancak son araştırmalar, yapay zekanın muazzam enerji talebini tam olarak karşılamak için daha fazla fosil yakıta , yani doğal gaza ihtiyaç duyulacağının neredeyse kesin olduğunu gösteriyor.
Yapay zekanın geleceği daha da fazla fosil yakıt.
Tüm bunlar göz korkutucu gelebilir, ancak farklı model türlerini karşılaştıran araştırmacılar, bulgularının günlük yapay zeka kullanıcılarının kendi karbon etkilerini azaltmak için adımlar atmalarına yardımcı olabileceğini söylüyor. Kullanıcılar, akıl yürütme modellerinin ne kadar daha fazla enerji tükettiğini anlarsa, bunları daha az kullanmayı tercih edebilir ve web aramaları ve temel soruları yanıtlama gibi genel günlük işler için özlü modellere güvenebilirler.
Dauner, “Kullanıcılar, yapay zeka tarafından üretilen çıktıların, örneğin kendilerini bir aksiyon figürüne dönüştürmenin tam CO₂ maliyetini bilirlerse, bu teknolojileri ne zaman ve nasıl kullanacakları konusunda daha seçici ve düşünceli olabilirler” dedi.
