Neue Methode reduziert Stromverbrauch von KI deutlich

Energy saving - Pixabay.com/geralt
  • Titelbild: Energy saving - Pixabay.com/geralt

Das Training von neuronalen Netzen für Künstliche Intelligenz (KI) erfordert enorme Rechenressourcen und damit sehr viel Strom. Forschende der Technischen Universität München (TUM) haben eine Methode entwickelt, die hundertmal schneller und damit wesentlich energieeffizienter funktioniert. Statt iterativ, also schrittweise vorzugehen, werden die Parameter auf Grundlage ihrer Wahrscheinlichkeit direkt aus den Daten berechnet. Die Qualität der Ergebnisse ist mit den bislang üblichen iterativen Verfahren vergleichbar.

KI-Anwendungen, wie Large Language Models (LLMs), sind aus unserem Alltag nicht mehr wegzudenken. Die benötigten Rechen-, Speicher- und Übertragungskapazitäten werden dabei von Rechenzentren zur Verfügung gestellt. Doch der Energieverbrauch dieser Zentren ist enorm: 2020 lag er in Deutschland bei rund 16 Milliarden Kilowattstunden – etwa ein Prozent des gesamten deutschen Strombedarfs. Für das Jahr 2025 wird ein Anstieg auf 22 Milliarden Kilowattstunden prognostiziert.

Hinzu kommt, dass in den kommenden Jahren komplexere KI-Anwendungen die Anforderungen an Rechenzentren noch einmal deutlich erhöhen werden. Mit der neuen Methode, die die Parameter anhand ihrer Wahrscheinlichkeit direkt aus den Daten berechnet, statt schrittweise vorzugehen, sinkt der benötigte Strombedarf für das Training erheblich.

  • Ausgabe: Mai
  • Jahr: 2025
  • Autoren: Redaktion
Image

Eugen G. Leuze Verlag GmbH & Co. KG
Karlstraße 4
88348 Bad Saulgau

Tel.: 07581 4801-0
Fax: 07581 4801-10
E-Mail: info@leuze-verlag.de

 

Melden Sie sich jetzt an unserem Newsletter an: