Yapay Zekanın Gerçek Maliyeti: Enerji, Su ve GPU Kullanımı

ChatGPT kullanırken sadece “Merhaba” yazıyoruz. Ama bu tek mesaj, şirketlere elektrik, su, soğutma, donanım ve veri merkezi maliyetleri olarak gerçek bir faturaya dönüşüyor. Yapay zekanın gerçek maliyeti nedir sizce

Bu videoda yapay zekanın gerçek maliyeti nedir ve arkasındaki görünmeyen harcamalar nelerdir ona bakıyoruz. Bir LLM’in eğitimi neden yüz milyonlarca dolar? Veri merkezleri neden bu kadar enerji tüketiyor? Yapay zeka gerçekten ne kadar su harcıyor? API gelirleri, abonelikler ve kurumsal satışlar şirketleri nasıl ayakta tutuyor? Bu videoda yapay zekanın gerçek maliyetini, arkadaki altyapının büyüklüğünü, Enerji & su tüketimini ve AI şirketlerinin nasıl para kazandığını kısa bir şekilde anlatıyorum. Eğer teknoloji, yapay zeka, ekonomi ve geleceğin dijital altyapısıyla ilgileniyorsanız bu video tam size göre.

Video Dökümü

Son zamanlarda oldukça popüler olan yapay zeka balon mu sorularının arasında bugün sana çok basit bir soru soracağım:

ChatGPT’ye “Merhaba” yazdığında, şirketin bunu sana kaça mal ederek cevapladığını hiç düşündün mü?

Ücretsiz kullanıyorsun…

Ama arkada yüzlerce sunucu, devasa çipler, inanılmaz enerji tüketimi ve çok pahalı bir altyapı çalışıyor.

Yani sen “Merhaba” diyorsun…

Ama sistem arkada bir kafe mutfağı gibi tam kapasite çalışmaya başlıyor.

Bugün bir yapay zekâ mesajının arkasındaki tüm gizli maliyetleri bakıyoruz.

BÖLÜM 1 — Bir soruyu yazdığında arkada ne oluyor? 

Sen yapay zekaya bir mesaj gönderdiğin anda şu zincir tetikleniyor:

1. Mesajın şirketin sunucularına gidiyor.

2. Model yükleniyor — dev bir matematik makinesi gibi milyonlarca parametre devreye giriyor.

3. GPU veya TPU’lar çalışmaya başlıyor. Kafanız karışmasın hemen GPU ve TPU’nun ne olduğunu anlatıyorum.

Graphics Processing Unit’in kısaltması olan GPU en basit haliyle Ekran kartının beyni. Başta oyun ve grafik için tasarlanmıştı ama bugün her türlü paralel hesaplama özellikle yapay zeka eğitimi için kullanılıyor.

Tensor Processing Unit’in kısaltması olan TPU ise Google’ın, özellikle yapay zeka / derin öğrenme için sıfırdan tasarladığı özel çip. GPU’dan bile daha “işe özel” bir donanım.

4. Cevap çıktıktan sonra da aslında model kapanmıyor;

altyapı bir süre daha açık kalıyor, cache’ler doluyor, hafıza yönetiliyor. 

Buradaki cache sık kullanılan verilerin geçici olarak tutulduğu hızlı bellek. Yani sistem, bazı şeyleri her seferinde sıfırdan hesaplamak yerine, cache’e koyup oradan hızlıca çekiyor. Bu yüzden altyapı biraz daha açık kalıyor.

Bütün bunlar bir saniyenin çok altında gerçekleşiyor ama oldukça maliyetli.

Bu yüzden yapay zeka şirketleri, mesaj başına maliyeti milisaniye, token ve watt bazında takip ediyor.

BÖLÜM 2 — Maliyet kalemleri nelerdir? (1:40–4:20)

1) Donanım maliyeti

• Bu modeller, Nvidia’nın H100, H200 gibi GPU’larında çalışıyor.

• Bu ayarda Tek bir GPU’nun fiyatı 10.000 ila 40.000 dolar arası.

• Büyük modellerin eğitimi için yüzlerce, hatta binlerce GPU kiralanıyor.

Yani şirket bir model eğitmek için bazen yüz milyonlarca dolarlık donanım kullanıyor. Örneğin GPT-4’ün eğitimi için yapılan tahminler genelde yüz milyonlarca dolar seviyesinde.

Bazı ciddi analizler, sadece eğitim sürecinin bile (donanım, elektrik, mühendislik, zaman vb.) 100 milyon doların üzerinde para harcandığını tahmin ediyor.

Harika — o zaman aynı bölümü daha çarpıcı, akılda kalıcı örneklerle yeniden yazıyorum. Anlatım videoda çok daha güçlü etkide bulunacak formda olacak:

2) Elektrik + Soğutma + Su Kullanımı (Güncellenmiş, Çarpıcı Versiyon)

Bir veri merkezi sadece bilgisayarlardan ibaret bir oda değildir.
Yapay zeka çalıştıkça ortaya çıkan ısı, ciddi bir soğutma operasyonu gerektirir.
Çünkü GPU’lar tam yükte adeta küçük bir soba gibi çalışır.

Basit bir örnek vermek gerekirse:

  • Bir GPU tam yükte 300 ila 700 watt tüketiyor.
  • Binlercesi aynı anda devreye girince enerji faturası başlı başına bir maliyet kalemi oluyor.

Ama asıl görünmeyen maliyet su

Peki sizce Yapay zeka soğutma için ne kadar su kullanıyor?

Birçok modern veri merkezi, özellikle sıcak bölgelerde, evaporatif soğutma kullanıyor.
Yani bu sistemler, içeri giren sıcak havayı suyla buharlaştırarak soğutuyor.
Ve bu yöntem inanılmaz miktarda su tüketiyor.

Dolayısıyla:

  • Büyük yapay zeka veri merkezleri yılda yüz milyonlarca litre su kullanabiliyor.
  • Bazı kampüslerin su tüketimi küçük bir kasabanın yıllık kullanımına eşit.
  • Büyük bir dil modelinin “eğitim dönemi” boyunca içtiği su, binlerce kişinin bir günlük içme suyuyla kıyaslanabiliyor.

Bu nedenle bazı araştırmacılar artık şu soruyu soruyor:
“Bir yapay zeka yanıtı üretmek kaç bardak suya mal oluyor?”

Model boyutuna ve soğutma sistemine göre değişmekle birlikte, kaba bir benzetme şöyle:

  • Birkaç yüz mesaj eşittir bir bardak su,
  • Büyük modelin eğitimi ise bir olimpik havuz dolusu su tüketimine yakın.

Yani sen tek bir soru soruyorsun…
Ama arka planda hem elektrik hem de su tüketen dev bir altyapı çalışıyor.

Bu yüzden teknoloji devleri artık su kullanımını azaltan kapalı devre soğutma sistemlerine, okyanus ve yeraltı soğutma çözümlerine, hatta tamamen su kullanmayan yeni teknolojilere yatırım yapıyor.

3) Veri merkezi kiralama / altyapı

Diğer masraflardan bazıları ise şöyle. Şirketler tarafından

• Sunucu odaları kiralanıyor.

• Ağ bant genişliği için ödemeler yapılıyor.

• Modelin kesintisiz çalışması için yedek güç kaynakları gerekiyor.

Kısacası: yapay zeka sadece matematik değil; çok ciddi bir lojistik operasyon.

4) Veri, mühendislik, lisanslama

Yapay Zeka şirketleri tarafından ayrıca,

• Verilerin toplanması ve temizlenmesi

• Çalışanların maaşları

• Yazılım altyapısı

• Güvenlik katmanları

• Model optimizasyonu gibi kalemlerde harcamalar yapılıyor.

BÖLÜM 3 — Peki bir mesajın maliyeti ne kadar? (4:20–5:20)

Her modelin maliyeti farklıdır; ama mantığını şöyle anlatabilirim:

• Bir soru → binlerce hesaplama → GPU çalışma süresi → enerji ve su tüketimi.

• Şirketler token bazında maliyet oluşur. Buradaki token metnin en küçük parçası demek. 

  • Bir token ≈ bir kelimenin tamamı ya da parçası olabilir. Örneğin “merhaba” için bir token veya duruma göre “mer” ve “haba” için ayrı birer token gibi).
  • Dolayısıyla Maliyet “kaç token işledin?” üzerinden hesaplanır, yani kaç parça metin okundu/yazıldıysa ona göre bir ücret çıkar.

• Büyük modellerde tek bir yanıtın maliyeti sent seviyesinde olabilir ama ölçek büyüyünce bu sentler milyon dolarlara dönüşüyor. 

BÖLÜM 4 — Ücretsiz kullanım nasıl finanse ediliyor? (5:20–6:50)

O halde milyonlarda insan yapay zekayı nasıl ücretsiz olarak kullanabiliyor? Şirketler bunu nasıl finanse edebiliyor?

1) Freemium model

Burada Freemium modeli devreye giriyor. Freemium, “free” (ücretsiz) + “premium” (ücretli) kelimelerinin birleşiminden oluşan bir iş modelidir. Bir ürünün temel özellikleri ücretsizdir, ancak gelişmiş özellikler, daha yüksek hız, daha fazla kapasite veya ek avantajlar için kullanıcıların ücretli versiyona geçmesi gerekir. 

Dolayısıyla,

• Ücretsiz kullanıcılar daha küçük, ucuz model kullanır.

• Ücretli kullanıcılar → daha büyük model kullanır ve  hızlı yanıt alır.

Ücretsiz kullanım aslında bir pazarlama yatırımıdır.

2) Abonelik gelirleri

Malumunuz birçok uygulama ve servis 

• Plus / Pro / Team / Enterprise gibi paketleri kullanıcılarına farkı fiyatlardan sunlar.

• Şirketlerin Asıl gelir kalemi de esasen budur.

3) API satışları

Diğer yandan, binlerce şirket ve biz bireysel kullanıcılar kendi uygulamalarımızda ChatGPT veya benzeri modelleri kullanabiliyoruz. Bunun için API denen arayüzler kullanıyoruz.  Application Programming Interface’in kısaltması olan API

bir yazılımın, başka bir yazılıma “Benimle böyle konuş, şu komutları kullanırsan şu işleri yaparım” demesidir.

İşte bu şirketler ve biz API kullandığımızda her token için ödeme yapıyoruz.

Bu da çok bilinmese de yapay zeka şirketlerine oldukça iyi karlar getiriyor.  Halen asıl gelir kaynağı üyelikler olsa da API kullanım gelirleri gün geçtikçe artıyor.  

4) Kurumsal lisanslar

Başka bir gelir kaynağı ise dev şirketlerin aylık yüz binlerce dolar ödeyerek kendi özel AI modellerini kullanmalarıdır.

BÖLÜM 5 — Neden herkes daha verimli model peşinde? (6:50–7:40)

Yapay zeka şirketlerinin neden daha verimli modeller peşinde olduğunu düşündünüz mü? Çünkü,

• Maliyet azalıyor

• Aynı güç daha az GPU ile elde ediliyor

• Saniye başına yanıt maliyeti düşüyor

• Rekabette avantaj sağlıyor

Bu yüzden son dönemde “küçük ama zeki” modeller trend oldu.

Amaç: Aynı kaliteyi 10 kat ucuza vermek.

KAPANIŞ 

Sonuç olarak…

Sen tek bir mesaj yazıyorsun, ama arkada dev bir endüstri çalışıyor.

Elektrik, su, donanım, veri merkezleri, mühendisler…

Her biri sistemin sana saniyeler içinde cevap vermesi için çalışıyor.

Şimdi soru şu:

Sence gelecekte yapay zeka tamamen ücretli bir hizmete mi dönüşecek? Yoksa herkes için bedava bir altyapı haline mi gelecek? 

Bir ürün ücretsizce ürün sizsinizdiri duymuş muydunuz? Bu başka bir videonun konusu olduğu için burada değinmeyeceğim ama sizin görüşlerinizi de merak ediyorum. 

Yorumlarda buluşalım. Görüşmek üzere.

Kaynaklar

OpenAI API

The AI API Gold Rush

The Most Expensive Part of an LLM should be its Training Data

The Price Tag on Pixels: Understanding the Real Costs of Large Language Models

OpenAI spent $80M to $100M training GPT-4; Chinese firm claims it trained its rival AI model for $3 million using just 2,000 GPUs

Teknoloji ve Yapay Zeka Dünyasını Yakından Takip Etmek İçin Yazılarımıza Göz Atabilirsiniz

Yorum bırakın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

AI Asistan
Haberleri yorumla, prompt önerileri al, sorularını sor.
AI Asistan'a Hoş Geldiniz!
Size nasıl yardımcı olabilirim? Sorunuzu yazabilir veya bir haber linki paylaşabilirsiniz.
Yapay Zeka Asistana Sorun