
Şubat. 2025
Yapay zeka veri merkezi nedir?
Yapay zeka veri merkezi, yapay zeka uygulamalarını ve hizmetlerini eğitmek, dağıtmak ve sunmak için gereken özel BT altyapısını barındıran bir tesistir . Gelişmiş bilgi işlem, ağ ve depolama mimarilerinin yanı sıra, yapay zeka iş yüklerini karşılayacak enerji ve soğutma özelliklerine sahiptir.
Geleneksel veri merkezleri, yapay zeka veri merkezleriyle aynı bileşenlerin çoğunu içerse de , bilgi işlem güçleri ve diğer BT altyapısı yetenekleri büyük ölçüde farklılık gösterir. Yapay zeka teknolojisinin avantajlarından yararlanmak isteyen kuruluşlar, gerekli yapay zeka altyapısına erişimden faydalanacaktır .
Bu erişime giden birçok yol var ve çoğu işletmenin sıfırdan kendi yapay zeka veri merkezlerini kurması gerekmeyecek; bu da devasa bir girişim. Hibrit bulut ve ortak yerleşim gibi seçenekler, her ölçekten kuruluşun yapay zekanın sunduğu avantajlardan yararlanabilmesi için giriş engellerini azalttı.
Yapay zeka veri merkezleri ve geleneksel veri merkezleri
Yapay zeka veri merkezleri, geleneksel veri merkezleriyle birçok benzerliğe sahiptir. Her ikisi de sunucular, depolama sistemleri ve ağ ekipmanları gibi donanımlar içerir. Her ikisinin de operatörlerinin güvenlik, güvenilirlik, kullanılabilirlik ve enerji verimliliği gibi unsurları göz önünde bulundurması gerekir.
Bu iki veri merkezi türü arasındaki farklar, yüksek yoğunluklu yapay zeka iş yüklerinin olağanüstü taleplerinden kaynaklanmaktadır. Yapay zeka veri merkezlerinin aksine, tipik veri merkezleri, yapay zeka iş yükleri tarafından hızla aşılabilecek altyapılara sahiptir. Yapay zekaya hazır altyapı, bulut, yapay zeka ve makine öğrenimi görevleri için özel olarak tasarlanmıştır.
Örneğin, geleneksel veri merkezlerinin merkezi işlem birimleri (CPU) için tasarlanma ve bunları içerme olasılığı daha yüksektir. Yapay zekaya hazır veri merkezleri ise yüksek performanslı grafik işlem birimleri (GPU) ve gelişmiş depolama, ağ, enerji ve soğutma yetenekleri gibi BT altyapısı hususlarını gerektirir. Çoğu zaman, yapay zeka kullanım durumları için gereken GPU sayısı da çok daha fazla alan gerektirir.
Hiper ölçek ve yerleşim
“Hiper ölçekli” ve “ortak yerleşim”, kuruluşların yapay zeka için yaygın olarak kullandığı iki tür veri merkezini tanımlar.
Hiper ölçekli
Hiper ölçekli veri merkezleri , en az 5.000 sunucu içeren ve en az 10.000 metrekarelik fiziksel alanı kaplayan devasa veri merkezleridir. Olağanüstü ölçeklenebilirlik özellikleri sunarlar ve büyük ölçekli iş yükleri ( üretken yapay zeka gibi) için tasarlanmıştır. Yapay zeka, otomasyon, veri analizi , veri depolama , veri işleme ve daha fazlasını içeren çeşitli amaçlar için Amazon Web Services (AWS), Microsoft Azure ve Google Cloud Platform (GCP) gibi bulut sağlayıcıları tarafından dünya çapında yaygın olarak kullanılmaktadırlar.
Ortak yerleşim
Ortak yerleşimli veri merkezi, bir şirketin hiper ölçekli bir veri merkezine sahip olduğu ve tesislerini, sunucularını ve bant genişliğini diğer şirketlere kiraladığı durumu ifade eder.
Bu kurulum, işletmelerin büyük yatırımlar yapmadan hiper ölçeğin avantajlarından yararlanmalarını sağlar. Dünyanın en büyük ortak yerleştirme hizmetleri kullanıcıları arasında Amazon (AWS), Google ve Microsoft yer almaktadır. Örneğin, bu bulut hizmeti sağlayıcıları Equinix adlı bir veri merkezi operatöründen önemli miktarda veri merkezi alanı kiralar. Daha sonra, yeni edindikleri alanı müşterilerin kullanımına sunarak diğer işletmelere kiralarlar.
Yapay zeka veri merkezlerinin büyümesi
2025’in başlarında yayınlanan bir blog yazısındaMicrosoft, yapay zekayı “çağımızın elektriği” olarak adlandırdı. Bu ifadenin abartılı mı yoksa yerinde bir tespit mi olduğu henüz belli değil. Ancak, OpenAI’nin ChatGPT gibi yapay zeka araçlarının milyonlarca uzman olmayan kullanıcı tarafından benimsenmesi baş döndürücü bir hızla ilerledi. Yapay zeka yeteneklerinin bu belirgin üretkenlik ve para kazanma potansiyeli, yeni yapay zeka üretkenlik araçları, temsilcileri ve içerik oluşturucularının yoğun bir şekilde ortaya çıkmasına yol açtı.
Açık kaynaklı modeller ve yapay zekanın sürekli demokratikleşmesi, yapay zeka ekosisteminde dalga yaratanların yalnızca büyük oyuncular olmadığı anlamına geliyor. Bir yapay zeka kullanım senaryosu belirleyip bunu başaracak BT altyapısını benimseyebilen hemen hemen her kuruluş bir teknoloji şirketi olabilir. IBM İş Değeri Enstitüsü’nün (IBM IBV) 2024 tarihli bir raporuna göre , üst düzey teknoloji yöneticilerinin %43’ü, üretken yapay zeka nedeniyle son altı ayda teknoloji altyapılarıyla ilgili endişelerinin arttığını ve artık altyapılarını ölçeklenebilir hale getirmek için optimize etmeye odaklandıklarını söylüyor.
Bu arada, veri merkezi sektörü talebe uyum sağlayacak şekilde büyüdü. Dünya genelindeki veri merkezi altyapıları giderek daha fazla yapay zekaya hazır hale geliyor ve yüksek hacimli karmaşık hesaplamaları ve talepleri işleyebiliyor. Şu anda, özellikle Pekin, Şanghay, Kuzey Virginia ve San Francisco Körfez Bölgesi gibi bölgelerde, Asya Pasifik ve Kuzey Amerika bölgeleri en fazla veri merkezinin bulunduğu bölgelerdir.
Büyük teknoloji şirketlerinin önemli yatırımları da yapay zeka veri merkezi sektörünün büyümesine işaret ediyor. Microsoft, 2025 yılında yaklaşık 80 milyar ABD doları yatırım yapmayı planlıyor.Veri merkezi inşaatına Meta 10 milyar ABD doları yatırım yapıyorABD’nin Louisiana eyaletinde, dört milyon metrekarelik yeni bir hiper ölçekli veri merkezi geliştirme projesi.
Yapay zeka destekli bir veri merkezinin temel özellikleri
Yapay zeka destekli veri merkezlerinin sahip olması gereken bazı benzersiz özellikler ve işlevler şunlardır:
Yüksek performanslı bilgi işlem
Gelişmiş depolama mimarisi
Dayanıklı ve güvenli ağ oluşturma
Yeterli güç ve soğutma çözümleri
Yüksek performanslı bilgi işlem
Yapay zekaya hazır bir veri merkezi, yapay zeka hızlandırıcılarında bulunanlar gibi yüksek performanslı bilgi işlem (HPC) yeteneklerine ihtiyaç duyar. Yapay zeka hızlandırıcıları, makine öğrenimi ve derin öğrenme (DL) modellerini, doğal dil işlemeyi ve diğer yapay zeka işlemlerini hızlandırmak için kullanılan yapay zeka çipleridir . Yapay zekayı ve birçok uygulamasını mümkün kılan donanım olarak kabul edilirler.
Örneğin, GPU’lar bir tür yapay zeka hızlandırıcısıdır. Nvidia tarafından popülerleştirilen GPU’lar, karmaşık problemleri eş zamanlı olarak çözülebilecek daha küçük parçalara bölen elektronik devrelerdir; bu yönteme paralel işleme denir . HPC, on binlerce ila milyonlarca işlemci veya işlemci çekirdeği kullanan, büyük ölçüde paralel işleme olarak bilinen bir paralel işleme türünü kullanır. Bu özellik, GPU’ları inanılmaz derecede hızlı ve verimli kılar. Yapay zeka modelleri, veri merkezi GPU’larında eğitilir ve çalıştırılır ve birçok önde gelen yapay zeka uygulamasını destekler.
Yapay zekaya hazır veri merkezleri, giderek artan bir şekilde, sinirsel işlem birimi (NPU) ve tensör işlem birimleri (TPU’lar) gibi daha özel yapay zeka hızlandırıcıları da içermektedir . NPU’lar, yapay zeka iş yüklerinin gerçek zamanlı olarak daha iyi işlenmesi için insan beyninin sinir yollarını taklit eder. TPU’lar, yapay zeka iş yüklerinde tensör hesaplamalarını hızlandırmak için özel olarak tasarlanmış hızlandırıcılardır. Yüksek verimleri ve düşük gecikme süreleri, onları birçok yapay zeka ve derin öğrenme uygulaması için ideal hale getirir.
Gelişmiş depolama mimarisi
Yapay zeka iş yüklerinin hızı ve yüksek hesaplama gereksinimleri, yüksek hızlı belleğe sahip geniş veri depolama alanı gerektirir. Katı hal sürücüleri (SSD’ler) , genellikle NAND flash bellek kullanan yarı iletken tabanlı depolama aygıtlarıdır ve yapay zeka veri merkezleri için kritik depolama aygıtları olarak kabul edilir. Özellikle, paralel işlemeyi gerçekleştirecek hıza, programlanabilirliğe ve kapasiteye sahip olan NVMe SSD’ler , bu konuda kritik öneme sahiptir.
Veri merkezi GPU’ları, hızlandırıcılar ve bazı SSD’ler de yüksek bant genişliğine sahip bellek (HBM) kullanır. Bu tür bellek mimarisi, daha geleneksel bir bellek mimarisi olan dinamik rastgele erişimli belleğe (DRAM) kıyasla daha düşük güç tüketimiyle yüksek performanslı veri aktarımı sağlar .
Yapay zeka veri merkezi tasarımının bir diğer tipik özelliği, beklenmedik dalgalanmalar gibi veri taleplerindeki dalgalanmaları karşılayabilen veri depolama mimarisidir. Birçok veri merkezi (hem yapay zeka hem de geleneksel), iş yüklerini özel donanımlarda çalıştırmak yerine, fiziksel depolamanın sanallaştırıldığı bir bulut mimarisi kullanır.
Sanallaştırma , tek bir bilgisayarın donanım bileşenlerinin (bellek ve depolama alanı gibi) birden fazla sanal makineye bölünmesidir. Kullanıcıların aynı fiziksel donanımda birden fazla uygulama ve işletim sistemi çalıştırmasına olanak tanıyarak daha iyi kaynak kullanımı ve esneklik sağlar.
Sanallaştırma aynı zamanda hibrit bulut yeteneklerini de yönlendiren bir teknolojidir . Hibrit bulut, kuruluşlara bulut ve şirket içi ortamları birbirine bağlama konusunda daha fazla çeviklik ve esneklik sağlar ; bu da veri yoğun üretken yapay zekayı benimsemek için kritik öneme sahiptir.
Dayanıklı ve güvenli ağ oluşturma
Yapay zeka hızlı olmalıdır. Kullanıcılar çevrimiçi yapay zeka uygulamalarından anında yanıt beklerken, otonom araçların yolda saniyenin çok küçük bir kısmında karar vermesi gerekir. Bu nedenle, yapay zeka veri merkezi ağları, yapay zeka iş yüklerinin yüksek bant genişliği gereksinimlerini düşük gecikmeyle karşılayabilmelidir . Hiper ölçekli veri merkezleri için bant genişliği gereksinimleri, saniyede birkaç gigabitten (Gbps) saniyede terabitlere (Tbps) kadar değişebilir.
Geleneksel veri merkezleri, harici iletişim ağları için fiber optik kullanır, ancak veri merkezlerindeki raflar iletişimlerini hâlâ ağırlıklı olarak bakır tabanlı elektrik kablolarıyla sağlar. IBM Research’ün yeni bir süreci olan eş-paketlenmiş optik, optik bağlantı bağlantılarını cihazların içine ve büyük dil modellerini (LLM) eğitmek ve dağıtmak için kullanılan veri merkezlerinin duvarlarına getirerek enerji verimliliğini artırmayı ve bant genişliğini artırmayı vaat ediyor . Bu yenilik, veri merkezi iletişimlerinin bant genişliğini önemli ölçüde artırarak yapay zeka işlemlerini hızlandırabilir.
Hemen hemen tüm modern veri merkezleri sanallaştırılmış ağ hizmetleri kullanır. Bu özellik, ağın fiziksel altyapısı üzerine inşa edilmiş yazılım tanımlı üst katman ağlarının oluşturulmasını sağlar . Altyapıda fiziksel değişiklik yapmaya gerek kalmadan her uygulama ve iş yükü için bilgi işlem, depolama ve ağ optimizasyonuna olanak tanır.
Yapay zeka veri merkezleri, daha iyi bağlantı, ölçeklenebilirlik ve performans sunan en son ağ sanallaştırma teknolojisine ihtiyaç duyar. Ayrıca, üretken yapay zeka modellerini eğitmek için kullanılan büyük miktardaki verilerle ilgili veri gizliliği ve güvenliği endişelerini de giderebilmelidir . IBM IBV anketine göre , CEO’ların %57’si veri güvenliğiyle ilgili endişelerin üretken yapay zekanın benimsenmesinde bir engel teşkil edeceğini söylüyor.
Yeterli güç ve soğutma çözümleri
Yapay zeka veri merkezlerindeki yüksek hesaplama gücü, gelişmiş ağ ve geniş depolama sistemleri, kesintileri, duruş sürelerini ve aşırı yüklenmeyi önlemek için büyük miktarda elektrik gücü ve gelişmiş soğutma sistemleri gerektirir. Goldman Sachs,Yapay zekanın 2030 yılına kadar veri merkezi elektrik talebinde %165’lik bir artışa yol açacağı belirtiliyor. McKinsey’nin analizi ise,Veri merkezi kapasitesine yönelik yıllık küresel talebin 171 ila 219 gigawatt’a (GW) ulaşabileceği tahmin ediliyor. Mevcut talep ise 60 GW.
Bu yoğun enerji tüketimi ve soğutma gereksinimlerini karşılamak için bazı yapay zeka veri merkezleri yüksek yoğunluklu bir kurulum kullanır. Bu strateji, daha iyi performans gösteren, daha enerji verimli ve gelişmiş soğutma sistemleri içeren kompakt sunucu yapılandırmalarıyla veri merkezi alanını en üst düzeye çıkarır .
Örneğin, sıvı soğutma, ısıyı aktarmak ve dağıtmak için genellikle hava soğutma yerine su kullanır. Yüksek yoğunluklu ısının işlenmesinde daha yüksek verimlilik ve veri merkezi enerji verimliliğini ölçmek için kullanılan bir ölçüt olan güç kullanım verimliliğini (PuE) artırır. Bir diğer soğutma yöntemi olan sıcak ve/veya soğuk koridor soğutma sistemi, hava akışını optimize etmek ve sıcak ve soğuk havanın karışmasını en aza indirmek için sunucu raflarını düzenler.
Bu önemli güç gereksinimleri göz önüne alındığında, günümüz kuruluşları genellikle yapay zeka hedefleri ile sürdürülebilirlik hedefleri arasında bir denge kurmaya çalışır. Etkileyici bir örnek Apple’dan geliyor .Dünyanın en büyük hiper ölçekli veri merkezi sahiplerinden biri olan Apple, 2014 yılından bu yana tüm veri merkezlerini biyogaz yakıt hücreleri, hidroelektrik , güneş enerjisi ve rüzgar enerjisinin çeşitli kombinasyonları aracılığıyla tamamen yenilenebilir enerjiyle çalıştırıyor .
Diğerleri ise uzaydaki yüksek yoğunluklu güneş enerjisinden yararlanarak yeni veri merkezleri inşa etmeyi umarak dünya dışı enerji kaynaklarına yöneliyor. Yörüngesel veri merkezlerindeki atılımlar , yapay zeka modellerinin eğitimi için enerji maliyetlerini önemli ölçüde düşürebilir ve enerji giderlerini %95’e kadar azaltabilir.