Entrenar redes neuronales para inteligencia artificial (IA) requiere enormes recursos informáticos y, por tanto, mucha electricidad. Investigadores de la Universidad Técnica de Múnich (TUM) han desarrollado un método que funciona cien veces más rápido y es, por tanto, mucho más eficiente desde el punto de vista energético. En lugar de proceder iterativamente, es decir, paso a paso, los parámetros se calculan directamente a partir de los datos en función de su probabilidad. La calidad de los resultados es comparable a la de los métodos iterativos habituales.
Las aplicaciones de IA, como los grandes modelos lingüísticos (LLM), se han convertido en parte integrante de nuestra vida cotidiana. Los centros de datos proporcionan las capacidades de cálculo, almacenamiento y transmisión necesarias. Sin embargo, el consumo de energía de estos centros es enorme: en 2020, ascendió a unos 16.000 millones de kilovatios hora en Alemania, alrededor del 1% de la demanda total de electricidad del país. Para 2025 se prevé un aumento hasta los 22.000 millones de kilovatios hora.
Además, las aplicaciones de IA más complejas aumentarán significativamente la demanda de los centros de datos en los próximos años. El nuevo método, que calcula los parámetros directamente a partir de los datos basándose en su probabilidad en lugar de proceder paso a paso, reduce significativamente la potencia necesaria para el entrenamiento.