Yapay zeka eğitiminde enerji tüketimi azalıyor
Yeni bir yöntem, yapay zeka eğitimindeki enerji tüketimini yüzde 100 azaltıyor. Dietrich’in yaklaşımı, sinir ağlarını daha hızlı öğrenmeye yönlendiriyor.

22 milyar kWh'ye çıkması bekleniyor
Yapay zeka teknolojileri, günümüzün pek çok alanında yaygın olarak kullanılıyor. Ancak büyük dil modellerinin (LLM) eğitimi, artan enerji tüketimi nedeniyle sürdürülebilirlik sorunlarını gündeme getiriyor. Almanya’daki veri merkezleri, 2020 yılında 16 milyar kilovat saat (kWh) elektrik tüketirken, bu rakamın 2025'te 22 milyar kWh'ye çıkması bekleniyor. Bu sorunu çözmek amacıyla bilim insanları, yapay zeka eğitiminde yeni bir yöntem geliştirmeye çalışıyor.
Geleneksel yapay zeka eğitim süreçleri, yüksek hesaplama gücü ve zaman gerektiren bir yapıdadır. Sinir ağları, verileri işlerken birçok parametreyi güncelleyerek doğruluk oranını artırmaya çalışır. Ancak Fizik Tabanlı Makine Öğrenimi profesörü Felix Dietrich ve ekibi, bu süreci değiştiren bir yaklaşım geliştirdi. Yeni yöntem, sinir ağlarını iterasyonlarla eğitmek yerine olasılık tabanlı bir yaklaşım kullanarak öğrenmeyi hızlandırıyor ve yapay zekanın geleneksel yöntemlere göre 100 kat daha hızlı öğrenmesini sağlıyor.
"yapay zeka modellerinin daha az enerjiyle eğitilmesine yardımcı oluyor"
Bu yenilikçi yöntem, sadece yapay zeka eğitiminde değil, aynı zamanda iklim modellemeleri ve finansal sistemler gibi karmaşık alanlarda da önemli gelişmelere olanak tanıyabilir. Dietrich, “Geliştirdiğimiz yöntem, yapay zeka modellerinin daha az enerjiyle eğitilmesine yardımcı oluyor. Bu, maliyetleri düşürürken çevresel etkileri de azaltıyor” diyor. Eğer bu yöntem büyük ölçekli sistemlerde başarıyla uygulanabilirse, yapay zeka eğitiminde devrim niteliğinde bir değişim sağlayabilir.