Yapay Zeka Enerji Tüketimi: ChatGPT’nin Cevabı Kimin Elektriğiyle Üretiliyor?

yapay-zeka-enerji-tuketimi-chatgpt-veri-merkezi.jpg

Yapay Zeka Enerji Tüketimi: ChatGPT’nin Cevabı Kimin Elektriğiyle Üretiliyor?

Yapay zeka enerji tüketimi artık yalnızca mühendislerin veya çevre raporlarının konusu değil. ChatGPT’ye yazılan her soru, görünmez bir veri merkezi, elektrik şebekesi, soğutma sistemi ve su altyapısı üzerinden cevaplanıyor.

Yapay zeka enerji tüketimi, ChatGPT’ye yazılan kısa bir soruda kendini hemen göstermez. Kullanıcı açısından olay neredeyse ağırlıksızdır: Bir kutuya metin girilir, karşılığında düzgün bir paragraf alınır. Bu kadar. Fakat yapay zekânın en büyük yanılsaması da burada başlar. Çünkü cevap, ekranın içinde doğmaz; elektrik çeken sunucuların, ısınan çiplerin, soğutma sistemlerinin, veri merkezlerinin ve enerji şebekelerinin içinden geçerek gelir.

Yapay zeka çağını hâlâ “yazılım devrimi” diye okuyanlar, meselenin yarısını görüyor. Evet, modeller, algoritmalar, veri setleri ve arayüzler var. Fakat bunların tamamı çok daha eski ve sert bir dünyanın üzerine oturuyor: elektrik üretimi, su kullanımı, arazi, metal, beton, kablo, trafo, soğutma ve şebeke kapasitesi. Yapay zekânın cevabı dijitaldir; maliyeti fiziksel.

Bu yüzden asıl soru “ChatGPT bir soruda kaç watt harcıyor?” sorusuyla sınırlı kalamaz. Daha doğru soru şudur: Yapay zeka büyüdükçe, bu yeni dijital zeka düzeninin enerji faturası kimin omzuna yazılacak?

Yapay Zeka Enerji Tüketimi Neden Bir Altyapı Meselesi?

“Bulut” kelimesi teknolojinin en başarılı pazarlama ifadelerinden biri olabilir. Hafiflik, erişilebilirlik ve soyutluk hissi verir. Dosyalarımız bulutta, fotoğraflarımız bulutta, yapay zeka modelleri bulutta. Fakat bulut gökyüzünde değildir. Bulut, bir başkasının sahip olduğu veri merkezidir.

Bu veri merkezleri yalnızca birkaç sunucu odası değildir. Hiperskala tesisler; binlerce sunucu, gelişmiş soğutma sistemi, yüksek kapasiteli elektrik bağlantıları, yedek güç altyapısı, güvenlik sistemi ve büyük arazi kullanımı gerektirir. Yapay zeka modelleri büyüdükçe bu altyapının yoğunluğu da artıyor. Özellikle üretken yapay zekâda hem model eğitimi hem de günlük kullanım — yani inference — ciddi işlem gücü gerektiriyor.

Uluslararası Enerji Ajansı’na göre veri merkezleri 2024’te küresel elektrik tüketiminin yaklaşık %1,5’ini oluşturdu; bu yaklaşık 415 TWh’lik bir tüketime karşılık geliyor. Aynı rapor, veri merkezi elektrik tüketiminin 2030’a kadar iki kattan fazla artarak yaklaşık 945 TWh’ye ulaşacağını öngörüyor. AI, bu büyümenin en önemli itici güçlerinden biri olarak belirtiliyor.

Bu rakamlar tek başına felaket ilanı için değil, ölçek duygusu için önemli. Çünkü yapay zeka kullanımı bireysel ölçekte küçük görünebilir; fakat küresel ölçekte veri merkezi talebine dönüştüğünde artık teknoloji sayfalarının ötesine geçen bir enerji politikası meselesidir.

Bu nedenle yapay zeka enerji tüketimi, yalnızca teknik verimlilik meselesi değil; veri merkezlerinin nerede kurulduğu, hangi şebekeye bağlandığı ve hangi kaynaklarla soğutulduğu sorusudur.

ChatGPT Elektrik Tüketimi: Tek Bir Soru Değil, Milyarlarca İşlem

Yapay zeka enerji tüketimi tartışmasında en sık yapılan hata, tek bir sorgunun elektrik tüketimine saplanmaktır. Evet, “Bir ChatGPT sorusu ne kadar elektrik harcar?” sorusu merak uyandırır. Fakat bu soruya verilen rakamlar genellikle model türüne, cevap uzunluğuna, donanıma, veri merkezinin verimliliğine, elektrik kaynağına ve hesaplama yöntemine göre değişir.

Sam Altman, 2025’te ortalama bir ChatGPT sorgusunun yaklaşık 0,34 watt-saat elektrik ve çok düşük miktarda su kullandığını ileri sürdü. The Verge bu açıklamayı aktarırken, OpenAI’ın bu rakamların nasıl hesaplandığına dair ayrıntılı metodoloji sunmadığını da belirtti.

Burada dürüst cümle şudur: Tekil sorgu maliyetini kesin ve evrensel bir rakam gibi sunmak hatalıdır. Kısa bir metin cevabı ile uzun akıl yürütme isteyen karmaşık bir görev aynı değildir. Metin üretimi ile görsel, video, kod çalıştırma veya ajan tabanlı çok adımlı işlem aynı değildir. Modelin hangi veri merkezinde çalıştığı, elektriğin hangi kaynaktan geldiği ve sistemin ne kadar verimli olduğu sonucu değiştirir.

Bu yüzden “her prompt şu kadar su harcar” gibi sosyal medya cümleleri çoğu zaman meseleyi aydınlatmaz; tersine karikatürleştirir. Asıl problem tek bir sorunun maliyeti değil, milyarlarca sorunun, kurumsal otomasyonun, model eğitimlerinin ve her gün kurulan yeni veri merkezlerinin toplam baskısıdır.

AI Bedava Değil; Sadece Faturası Gizli

Kullanıcı açısından yapay zeka çoğu zaman ucuz görünür. Ücretsiz sürüm vardır, abonelik vardır, kurumsal paket vardır. Fakat bu ücretlendirme, altyapı maliyetinin tamamını görünür kılmaz. Yapay zeka sistemlerinin gerçek faturası üç ayrı yerde oluşur.

Birincisi, doğrudan şirketlerin ödediği elektrik ve altyapı maliyetidir. Sunucuların çalışması, çiplerin soğutulması, veri merkezlerinin kurulması ve işletilmesi büyük sermaye gerektirir.

İkincisi, enerji şebekesine binen yüktür. Bir bölgede veri merkezi yoğunlaşması arttığında, yalnızca teknoloji şirketinin değil, yerel şebekenin de kapasitesi sınanır. Trafo, iletim hattı, üretim kapasitesi ve yedek güç ihtiyacı gündeme gelir.

Üçüncüsü, çevresel ve toplumsal maliyettir. Elektrik üretiminin kaynağı fosil yakıtsa karbon etkisi büyür. Soğutma için su kullanılıyorsa yerel su stresi tartışmaya açılır. Arazi, imar, yerel istihdam, vergi avantajları ve belediye kararları da bu denklemin parçası olur.

ABD’de bu baskı artık soyut bir gelecek tartışması değil. Reuters’ın EIA verilerine dayandırdığı habere göre ABD elektrik tüketiminin 2025’teki rekor seviyeden sonra 2026 ve 2027’de daha da yükselmesi bekleniyor; artışta AI ve kripto para veri merkezlerine ayrılmış tesislerin önemli payı olduğu belirtiliyor. EIA projeksiyonunda ABD elektrik talebinin 2025’te 4.195 milyar kWh’den 2026’da 4.244 milyar kWh’ye, 2027’de ise 4.381 milyar kWh’ye çıkacağı aktarılıyor.

Bu tablo şunu gösteriyor: Yapay zeka artık yalnızca teknoloji sayfalarında değil, enerji talebi projeksiyonlarında da yer kaplıyor.

Yapay zeka enerji tüketimi burada görünmez bir maliyet olmaktan çıkar; elektrik planlaması, yerel altyapı ve şirketlerin büyüme stratejileriyle doğrudan ilişkili bir meseleye dönüşür.

Yapay Zeka Enerji Tüketimi ve Yeni Veri Merkezi Fabrikaları

Sanayi devriminin fabrikaları bacalarıyla tanınırdı. Yapay zeka çağının fabrikaları ise daha sessizdir: büyük kutu binalar, güvenlik çitleri, sunucu rafları, soğutma kuleleri ve kesintisiz elektrik hatları. Gürültüsü kamusal hayatta daha az duyulur; fakat tüketimi gerçektir.

ABD Enerji Bakanlığı’nın Lawrence Berkeley National Laboratory tarafından hazırlanan rapora ilişkin açıklamasına göre ABD’de veri merkezleri 2023’te toplam elektrik tüketiminin yaklaşık %4,4’ünü kullandı. Aynı açıklamada veri merkezi elektrik kullanımının 2014’te 58 TWh iken 2023’te 176 TWh’ye çıktığı, 2028’de ise 325–580 TWh aralığına ulaşabileceği belirtiliyor.

Bu rakamlar, veri merkezlerini sıradan bir dijital hizmet altyapısı olmaktan çıkarıyor. Karşımızda yeni bir endüstriyel yoğunlaşma var. Üstelik IEA, veri merkezlerinin toplam küresel elektrik talebindeki payı sınırlı kalsa bile belirli bölgelerde yoğunlaştığı için şebeke entegrasyonunu zorlaştırabileceğini vurguluyor.

Bu ayrım önemli. Küresel yüzde küçük görünebilir; yerel etki büyük olabilir. Bir ülke ölçeğinde %1,5 görünen tüketim, belirli bir eyalet, şehir veya şebeke bölgesinde çok daha baskın hale gelebilir. Yapay zeka altyapısının siyasi meselesi de burada başlar: Veri merkezinden ekonomik faydayı kim alacak, elektrik ve su baskısını kim taşıyacak?

Bu yüzden yapay zeka enerji tüketimi, yalnızca küresel toplamlarla değil, belirli bölgelerde oluşan yerel baskılarla birlikte okunmalıdır.

Yapay Zeka Su Tüketimi: Sadece Elektrik Değil

Yapay zeka enerji tüketimi konuşulurken su meselesi çoğu zaman ikinci planda kalır. Oysa veri merkezleri yalnızca elektrik kullanmaz; soğutma sistemleri için suya da ihtiyaç duyabilir. Kullanılan teknolojiye, iklime, tesis tasarımına ve soğutma yöntemine göre su tüketimi ciddi biçimde değişir.

Reuters, yatırımcıların Amazon, Microsoft ve Google gibi şirketlere ABD veri merkezlerindeki su ve enerji kullanımı konusunda daha fazla şeffaflık çağrısı yaptığını aktardı. Haberde, Mordor Intelligence verilerine göre Kuzey Amerika veri merkezlerinin 2025’te yaklaşık 1 trilyon litre su kullandığı; bunun New York City’nin yıllık su talebine yakın olduğu belirtildi.

Avrupa Komisyonu’nun çevre yayını da veri merkezlerinin 2030’a kadar küresel elektriğin %3–4’ünü tüketebileceğini ve 2027’ye kadar yıllık yaklaşık 5 milyar metreküp su kullanabileceğini aktarıyor.

Bu noktada kolay bir propaganda cümlesine düşmemek gerekir. Her veri merkezi aynı suyu kullanmaz. Kapalı devre soğutma sistemleri, geri dönüştürülmüş su, kuru soğutma ve daha verimli altyapılar tüketimi azaltabilir. Ancak bu teknik iyileştirmeler, şeffaflık ihtiyacını ortadan kaldırmaz. Hangi tesis ne kadar su kullanıyor? Hangi bölgede kuruluyor? O bölgede su stresi var mı? Soğutma tercihi yerel kaynakları nasıl etkiliyor?

Bunlar artık teknoloji şirketlerinin yalnızca mühendislik departmanına bırakılabilecek sorular değildir.

Yapay zeka enerji tüketimi ile su kullanımı aynı altyapı zincirinin iki ayrı yüzüdür: biri sunucuyu çalıştırır, diğeri çoğu zaman o sunucunun ısısını yönetir.

Şirketlerin Yeşil Sözü ve Altyapının Sertliği

Büyük teknoloji şirketleri yenilenebilir enerji anlaşmaları, karbon azaltım hedefleri, su pozitifliği, verimlilik projeleri ve yeni nesil soğutma sistemleriyle bu baskıyı azaltmaya çalıştıklarını söylüyor. Bu çabalar tamamen önemsiz değildir. Veri merkezlerinin daha verimli çalışması, yenilenebilir enerji tedariki ve daha az su kullanan soğutma sistemleri gerçek fark yaratabilir.

Fakat burada iki sorun var.

Birincisi, yapay zeka talebi verimlilik artışını yutabilir. Bir model daha verimli çalışsa bile kullanım hacmi çok hızlı büyürse toplam tüketim artmaya devam eder. Bu klasik “verimlilik paradoksu”dur: Birim başına maliyet düşer, kullanım artar, toplam yük yine büyür.

İkincisi, şirket açıklamaları ile fiziksel altyapı arasındaki boşluk her zaman kamuya açık değildir. Veri merkezi kapasitesi nerede artıyor? Elektrik hangi kaynaktan geliyor? Su hangi havzadan çekiliyor? Karbon hesabı piyasa temelli yenilenebilir enerji sertifikalarıyla mı, yoksa gerçek zamanlı fiziksel tüketimle mi yapılıyor? Bu soruların yanıtı kolayca görünmez.

İngiltere’de de benzer tartışmalar gündeme geldi. Guardian, Birleşik Krallık hükümetinin AI veri merkezlerinin karbon etkisine ilişkin tahminlerinin yukarı yönlü revize edildiğini ve 2025–2035 arasında 34 milyon ile 123 milyon ton CO₂ aralığında bir etki öngörüldüğünü yazdı. Bu tahminlerin, verimlilik artışı ve enerji şebekesinin karbonsuzlaşma hızına bağlı olarak değişebileceği de belirtiliyor.

Bu belirsizlik, yazının ana fikrini güçlendirir: Yapay zekânın çevresel maliyeti tek bir sihirli rakamla açıklanamaz. Şeffaflık, ölçek ve enerji kaynağı birlikte değerlendirilmelidir.

Bu noktada yapay zeka enerji tüketimi, şirketlerin sürdürülebilirlik vaatleriyle fiziksel altyapının sert sınırları arasındaki mesafeyi görünür kılar.

Kullanıcı Suçlu mu?

Bu yazının yanlış okunabilecek en zayıf noktası şudur: “O halde ChatGPT kullanmak ahlaken sorunlu mu?” Bu soru fazla kolay ve çoğu zaman verimsizdir.

Bireysel kullanıcı, yapay zeka altyapısının tamamını belirlemez. Bir öğrencinin ödev planı istemesi, bir yazarın taslak çıkarması veya bir çalışanın metin düzenlemesi, tek başına küresel enerji krizinin nedeni değildir. Sorunu bireysel suçluluk duygusuna indirgemek, asıl aktörleri görünmez kılar: teknoloji şirketleri, enerji tedarikçileri, veri merkezi yatırımcıları, regülatörler, yerel yönetimler ve kamu politikası.

Fakat bu, kullanıcı düzeyinde hiçbir şeyin önemi olmadığı anlamına da gelmez. Yapay zekânın her iş için varsayılan araç haline gelmesi, “her küçük işlem için büyük model çağırma” alışkanlığı, kurumsal ölçekte ciddi bir yük yaratabilir. Özellikle şirketler yapay zekâyı metin, görsel, video, kod, müşteri hizmetleri, analiz ve otomasyon süreçlerine yaydıkça bireysel kullanım değil, toplu kullanım davranışı belirleyici olur.

Bu nedenle daha doğru etik soru şudur: Yapay zekâyı nerede gerçekten değer ürettiği için kullanıyoruz, nerede yalnızca hesaplama gücünü ucuz sandığımız için tüketiyoruz?

Bu nedenle yapay zeka enerji tüketimi meselesini bireysel suçluluk alanına sıkıştırmak yerine, kullanım ölçeği, şirket stratejisi ve kamusal denetim ekseninde tartışmak gerekir.

Yapay Zeka Enerji Tüketimi Çözüm de Üretebilir mi?

Yapay zekânın enerji tüketimini tartışmak, teknolojiyi bütünüyle reddetmek anlamına gelmez. Bu da başka bir tembel uçtur. Yapay zeka; elektrik şebekesi optimizasyonunda, enerji verimliliğinde, malzeme keşfinde, iklim modellemesinde, bina yönetiminde ve endüstriyel süreçlerde ciddi faydalar sağlayabilir.

IEA da veri merkezlerinin küresel elektrik talebi içindeki payı artsa bile daha geniş bağlamda sanayi, klima kullanımı, elektrikli araçlar ve genel elektrifikasyon gibi başka büyük talep kaynaklarının da bulunduğunu vurguluyor. Veri merkezleri 2030’a kadar küresel elektrik talebi artışının yaklaşık onda birini oluştururken, bazı ülkelerde bu etki çok daha belirgin hale geliyor.

Yani mesele “AI iyi mi kötü mü?” değil. Mesele, hangi yapay zekânın, hangi amaçla, hangi enerji kaynağıyla, hangi şeffaflık düzeyiyle ve hangi toplumsal maliyetle kullanıldığıdır.

Verimli model, temiz enerji, yerel şebeke planlaması, su yönetimi ve kamusal denetim olmadan yapay zeka altyapısı büyüdüğünde, “dijital ilerleme” fiziksel eşitsizlik üretebilir. Bazı bölgeler veri merkezlerinin yatırımını alırken, bazı bölgeler elektrik ve su baskısını taşır. Bazı şirketler yapay zekâdan büyük gelir elde ederken, kamu altyapısı bu büyümenin görünmeyen maliyetini üstlenir. Bu tartışma, platform ekonomisi ve dijital mahremiyet tartışmalarından ayrı düşünülemez.

Gizli Fatura Nereye Yazılıyor?

Yapay zeka enerji tüketimi tek bir kalemde durmuyor. Bir kısmı şirketlerin sermaye harcamalarında, bir kısmı elektrik piyasalarında, bir kısmı yerel şebeke yatırımlarında, bir kısmı su kullanımında, bir kısmı karbon hesabında, bir kısmı da gelecekteki regülasyonlarda görünecek.

Bu yüzden “ChatGPT’nin cevabı kimin elektriğiyle üretiliyor?” sorusunun cevabı basit değildir. Cevap, kullanıcının evindeki prizden değil; veri merkezinin bağlı olduğu şebekeden, o şebekeyi besleyen enerji karışımından, şirketin yaptığı tedarik anlaşmalarından, yerel yönetimin verdiği izinlerden ve toplumun kabul ettiği altyapı maliyetlerinden gelir.

Yapay zeka bize akıllı cevaplar veriyor olabilir. Fakat bu cevapların üretildiği düzen, hâlâ eski dünyanın kaynaklarına bağlı: elektrik, su, metal, arazi ve zaman.

Bu nedenle yapay zekânın geleceğini yalnızca model performansıyla ölçmek yetersizdir. Daha iyi cevap veren sistemler istiyorsak, o cevapların hangi altyapı üzerinde üretildiğini de sormak zorundayız. Aksi halde zekâyı ekranda görür, faturayı yerde unuturuz.

Yapay zekânın gerçek maliyeti abonelik ekranında yazan ücret değildir. Asıl maliyet, cevabın görünmediği yerde başlar: veri merkezinin uğultusunda, şebekenin yükünde, soğutma suyunda ve kimin adına kurulduğu yeterince tartışılmamış bir dijital endüstrinin büyümesinde.

Yapay Zeka Enerji Tüketimi Hakkında Kısa Sorular

Yapay zeka enerji tüketimi neden artıyor?

Yapay zeka enerji tüketimi; daha büyük modeller, daha yoğun veri merkezi kullanımı, kurumsal otomasyon, görsel-video üretimi ve milyarlarca günlük sorgu nedeniyle artıyor. Sorun tek bir ChatGPT sorusundan çok, bu işlemlerin toplam ölçeğinde ortaya çıkıyor.

ChatGPT elektrik tüketimi kesin olarak ölçülebilir mi?

Tek bir ChatGPT sorgusunun elektrik tüketimi kesin ve evrensel bir rakamla verilemez. Model türü, cevap uzunluğu, kullanılan donanım, veri merkezinin verimliliği ve elektriğin kaynağı sonucu değiştirir.

Yapay zeka enerji tüketimi kullanıcıyı suçlu yapar mı?

Yapay zeka enerji tüketimi meselesi bireysel kullanıcı suçluluğuna indirgenemez. Asıl tartışma; şirket stratejileri, veri merkezi yatırımları, elektrik şebekesi, su kullanımı ve kamusal denetim etrafında kurulmalıdır.

Kaynakça

  1. International Energy Agency. (2025). Energy and AI: Executive summary . International Energy Agency.
  2. International Energy Agency. (2025). Energy demand from AI . International Energy Agency.
  3. Reuters. (2026, April 7). US power use to beat record highs in 2026 and 2027 as AI use surges, EIA says . Reuters.
  4. U.S. Department of Energy. (2024, December 20). DOE releases new report evaluating increase in electricity demand from data centers . U.S. Department of Energy.
  5. Lawrence Berkeley National Laboratory. (2024, December 20). Berkeley Lab report evaluates increase in electricity demand from data centers . Lawrence Berkeley National Laboratory.
  6. Reuters. (2026, April 6). Investors press Amazon, Microsoft and Google on water, power use in US data centers . Reuters.
  7. European Commission. (2026, March 30). AI data centre waste heat could be used for water purification and carbon capture . European Commission.
  8. Roth, E. (2025, June 10). Sam Altman claims an average ChatGPT query uses “roughly one fifteenth of a teaspoon” of water . The Verge.
  9. The Guardian. (2026, April 24). Officials hugely underestimated impact of AI datacentres on UK carbon emissions . The Guardian.

Popüler yayınlar

MARJ sitesinden daha fazla şey keşfedin

Okumaya devam etmek ve tüm arşive erişim kazanmak için hemen abone olun.

Okumaya Devam Edin