No hay energía para tantos chips. – Noticias ultima hora

El CEO de Microsoft, Satya Nadella, asistió recientemente en una entrevista y en él, Nadella explicaba que el verdadero problema del segmento de la IA no es que se estén produciendo cantidades excesivas de chips, sino que no tenemos suficiente energía para alimentarlos a todos. Es la confirmación de algo que esperábamos desde hace mucho tiempo.

Demasiados chips para tan poco rendimiento. Tanto Nadella como Sam Altman, director ejecutivo de OpenAI, participaron en la entrevista. Al mismo tiempo, el director general de Microsoft explicó: «El mayor problema que tenemos ahora no es el exceso de capacidad informática, sino la energía. Es algo así como la capacidad de construir». [los centros de datos] suficientemente cerca de las fuentes de energía.

Descantillados en el cajón. Nadella continuó enfatizando: “Si no puedes hacer algo así”. [suministrar suficiente energía]Tendrás muchos chips en tu inventario que no podrás conectar. De hecho, ese es mi problema ahora mismo: no es que no tenga suficientes chips, sino que no tengo dónde ponerlos.

Un problema que se había previsto. Microsoft, al igual que otras empresas que han elegido este segmento, lleva tiempo intentando prepararse para esta demanda energética. Hace dos años, en otoño de 2023, buscaban expertos para gestionar su programa nuclear. El objetivo: confiar en los innovadores reactores SMR, que podrían ser una buena solución para alimentar los futuros centros de datos. Google se dio cuenta exactamente de lo mismo un año después y acordó con Kairos Power construir siete de estos reactores para 2030.

lo cocino, lo como. Las grandes empresas de tecnología que invierten miles de millones de dólares para construir nuevos centros de datos en Estados Unidos han descubierto que la red eléctrica actual puede no ser suficiente para sus necesidades. Su solución es construir sus propias instalaciones que esperan puedan equilibrar la demanda y el consumo de estas gigantescas fábricas de computadoras, donde decenas de miles de GPU aceleradoras de IA trabajan para servir a los usuarios actuales (y futuros) de funciones de IA.

Necesidades crecientes. Un informe de la Agencia Internacional de la Energía (AIE) apreciado que se consumirán entre 240 y 340 TWh de energía para los centros de datos en 2022 (excluidas las criptomonedas). Esto supone un aumento de entre el 20 y el 70% respecto al consumo de 2015. Ya en abril de 2024, la misma organización advirtió que varios países multiplicarían significativamente este consumo.

¿Triple energía? El director ejecutivo de ARM, René Haas, señaló entonces que las necesidades de energía se triplicarían, pero probablemente no podía saber cómo se desarrollarían los acontecimientos. Desde entonces, las empresas de IA han anunciado proyectos gigantescos -con Stargate a la cabeza- y gastarán enormes cantidades de dinero en una apuesta incierta: que la IA será la gran revolución que moldeará nuestra vida diaria.

En | NVIDIA y OpenAI acaban de lograr una obra maestra. Uno que los fortalece y debilita a todos los demás.

Compartir:
Facebook
Twitter
LinkedIn
Reddit

Noticias relacionadas