Yapay zeka günlük hayatımıza ne kadar çok girerse, sürdürülebilirliği sorunu o kadar önemli hale geliyor. Bu bağlamda Midjourney veya ChatGPT gibi uygulamaların geliştirildiği ve yönetildiği veri merkezlerinin enerji tüketimi ve emisyonları sıklıkla ortaya çıkıyor. Özellikle günde milyonlarca kez kullanılan karmaşık modeller ve uygulamaların çalışması için çok fazla enerji gerekir, bu nedenle yapay zekanın genel iklim dengesi şimdiye kadar oldukça karışık kabul edilmiştir.
Şimdiye kadar su ayak izine çok az dikkat edildi.
Eğitim ve operasyon için kullanılan veri merkezleri elektriğe ek olarak, daha az değerli olmayan başka bir kaynağa da ihtiyaç duyar: tesisleri soğutmak için kullanılan su. Sürdürülebilir AI tartışmasında, bu yön şimdiye kadar ikincil bir rol oynadı. Özellikle suyun giderek azalan bir kaynak olduğu bölgelerde su tüketimi hafife alınmamalıdır.
Riverside’daki California Üniversitesi’ndeki araştırmacıların yakın tarihli bir ön baskı makalesinde yazdıkları şey bu. “Microsoft’un Amerika Birleşik Devletleri’ndeki modern yüksek performanslı veri merkezlerinden birinde GPT-3 eğitimi, yaklaşık 700.000 litre su kullanabilirdi” diyor, bu da 320 Tesla üretimine eşdeğer. Araştırmacılar, ortalama 20 ila 50 soru içeren ChatGPT ile yapılan her görüşme için yarım litre içme suyunun boşa harcandığını tahmin ediyor. OpenAI, Microsoft ve Google gibi şirketler, AI uygulamalarının elektrik ve su tüketimi hakkında herhangi bir resmi bilgi vermediğinden, bu konudaki neredeyse tüm çalışmalar, çeşitli temel teknik verilere dayanan tahminlere dayanmaktadır.
Google’ın LaMDA su tüketimi
Araştırmacılar, çalışmaları için su çıkarma, yani örneğin bir nehirden suyun fiziksel olarak çıkarılması ve su tüketimi arasında temel bir ayrım yapıyorlar. Bu, veri merkezleri soğutulduğunda ve su buharlaşarak kaybolduğunda doğrudan veya elektrik üretmek için gereken su dahil edildiğinde dolaylı olarak olabilir.
Araştırmacılar, doğrudan ve dolaylı AI su tüketimini tahmin etmek için ABD’deki dört Google veri merkezinin konumlarını, yerel hava durumu verilerini, yerel enerji karışımı bilgilerini ve soğutma kulelerinin ortalama verimliliğini içeren bir model geliştirdi. Hesaplamayı kullanarak, Google’ın AI dil modeli LaMDA’nın 58 günlük eğitiminin ne kadar su tüketmiş olabileceğini tahmin etmek istiyorlar. Sonuç: Lansman ayına ve veri merkezine bağlı olarak LaMDA, 800.000 ila 2,8 milyon litre su tüketebilirdi.
Ekip, modellerinin zayıflıklarının farkında: “LaMDA’nın tahmini su ayak izimiz, yalnızca araştırma topluluğu için kaba bir kılavuz görevi görüyor” diyor. Daha kesin bir hesaplama ancak geliştiricilerin içgörüleri sayesinde mümkündür. Bununla birlikte, çalışmadan bazı önemli sonuçlar çıkarılabilir. Bu nedenle AI’yı tercihen kış aylarında veya daha soğuk olduğu ve bu nedenle soğutma için daha az suya ihtiyaç duyduğu geceleri eğitmeniz önerilir. Ayrıca, veri merkezleri zaten sıcak ve suyun kıt olduğu yerlere kurulmamalıdır.
Analiz, “‘ne zaman’ ve ‘nerede’, büyük AI modellerinin su tüketimini önemli ölçüde etkileyebilir” diyor. Son olarak, yazarlar yapay zeka modellerinin su ayak izinin şeffaflığını artırma ihtiyacının altını çiziyor: “küresel su sorunlarıyla mücadeleye yönelik ortak çabanın bir parçası olarak” su tüketimine öncelik verilmelidir.
MIT Technology Review dergisinin güncel sayısında su hakkında daha fazla bilgi edinebilirsiniz (Haberler mağazasından sipariş edilebilir ve iyi stoklanmış istasyon kitapçılarında mevcuttur). Dergi yazılarını Haberler+ platformu üzerinden online olarak da okuyabilirsiniz:
(jle)
Haberin Sonu
Şimdiye kadar su ayak izine çok az dikkat edildi.
Eğitim ve operasyon için kullanılan veri merkezleri elektriğe ek olarak, daha az değerli olmayan başka bir kaynağa da ihtiyaç duyar: tesisleri soğutmak için kullanılan su. Sürdürülebilir AI tartışmasında, bu yön şimdiye kadar ikincil bir rol oynadı. Özellikle suyun giderek azalan bir kaynak olduğu bölgelerde su tüketimi hafife alınmamalıdır.
Riverside’daki California Üniversitesi’ndeki araştırmacıların yakın tarihli bir ön baskı makalesinde yazdıkları şey bu. “Microsoft’un Amerika Birleşik Devletleri’ndeki modern yüksek performanslı veri merkezlerinden birinde GPT-3 eğitimi, yaklaşık 700.000 litre su kullanabilirdi” diyor, bu da 320 Tesla üretimine eşdeğer. Araştırmacılar, ortalama 20 ila 50 soru içeren ChatGPT ile yapılan her görüşme için yarım litre içme suyunun boşa harcandığını tahmin ediyor. OpenAI, Microsoft ve Google gibi şirketler, AI uygulamalarının elektrik ve su tüketimi hakkında herhangi bir resmi bilgi vermediğinden, bu konudaki neredeyse tüm çalışmalar, çeşitli temel teknik verilere dayanan tahminlere dayanmaktadır.
Google’ın LaMDA su tüketimi
Araştırmacılar, çalışmaları için su çıkarma, yani örneğin bir nehirden suyun fiziksel olarak çıkarılması ve su tüketimi arasında temel bir ayrım yapıyorlar. Bu, veri merkezleri soğutulduğunda ve su buharlaşarak kaybolduğunda doğrudan veya elektrik üretmek için gereken su dahil edildiğinde dolaylı olarak olabilir.
Araştırmacılar, doğrudan ve dolaylı AI su tüketimini tahmin etmek için ABD’deki dört Google veri merkezinin konumlarını, yerel hava durumu verilerini, yerel enerji karışımı bilgilerini ve soğutma kulelerinin ortalama verimliliğini içeren bir model geliştirdi. Hesaplamayı kullanarak, Google’ın AI dil modeli LaMDA’nın 58 günlük eğitiminin ne kadar su tüketmiş olabileceğini tahmin etmek istiyorlar. Sonuç: Lansman ayına ve veri merkezine bağlı olarak LaMDA, 800.000 ila 2,8 milyon litre su tüketebilirdi.


Ekip, modellerinin zayıflıklarının farkında: “LaMDA’nın tahmini su ayak izimiz, yalnızca araştırma topluluğu için kaba bir kılavuz görevi görüyor” diyor. Daha kesin bir hesaplama ancak geliştiricilerin içgörüleri sayesinde mümkündür. Bununla birlikte, çalışmadan bazı önemli sonuçlar çıkarılabilir. Bu nedenle AI’yı tercihen kış aylarında veya daha soğuk olduğu ve bu nedenle soğutma için daha az suya ihtiyaç duyduğu geceleri eğitmeniz önerilir. Ayrıca, veri merkezleri zaten sıcak ve suyun kıt olduğu yerlere kurulmamalıdır.
Analiz, “‘ne zaman’ ve ‘nerede’, büyük AI modellerinin su tüketimini önemli ölçüde etkileyebilir” diyor. Son olarak, yazarlar yapay zeka modellerinin su ayak izinin şeffaflığını artırma ihtiyacının altını çiziyor: “küresel su sorunlarıyla mücadeleye yönelik ortak çabanın bir parçası olarak” su tüketimine öncelik verilmelidir.

MIT Technology Review dergisinin güncel sayısında su hakkında daha fazla bilgi edinebilirsiniz (Haberler mağazasından sipariş edilebilir ve iyi stoklanmış istasyon kitapçılarında mevcuttur). Dergi yazılarını Haberler+ platformu üzerinden online olarak da okuyabilirsiniz:
(jle)
Haberin Sonu