
El debate sobre tecnología gira en torno a las modas pasajeras, y nada es tan pasajera como la inteligencia artificial. Todos los países que quieren participar en el debate están desarrollando sus modelos y herramientas, y es interesante cómo la geopolítica lo impregna todo: Estados Unidos lucha por la soberanía, mientras que China quiere ganar dinero a partir de ahora.
Pero por muy interesantes que sean las capacidades de un modelo u otro, se trata de dos conceptos que están completamente alineados: los centros de datos que proporcionan la enorme cantidad de cálculos necesarios para entrenar la inteligencia artificial, y obviamente de dónde obtienen esa absurda cantidad de energía.
Y como resultado de esta conversación Nace un término fascinante.: el de los “Bragawatts”.
Los “Bragawatts” como alarde de la IA
Cuando empresas como OpenAI o Google anuncian nuevos centros de datos centrados en la IA, suelen proporcionar cifras grandilocuentes sobre el consumo de energía. RecientementeOpenAI anunció un nuevo campus en Michigan junto con otros seis también revelado recientementeRequieren más de 8 GW para funcionar.
También hablan de dinero.: un plan de 500 mil millones de dólares lanzado en enero de este año con 10 GW de capacidad planificada.
Según la empresa, se trata de “la infraestructura necesaria para hacer avanzar la IA y reindustrializar el país”. En Tiempos financieros Hicieron los cálculos y con el proyecto de Michigan la empresa dispone de 46 GW de potencia informática. Cuando se trata de operaciones como la compra de Activision-Blizzard por parte de Microsoft por 75 mil millones de dólares, el contexto es necesario porque es difícil imaginar cifras tan enormes.
Si 1 GW fuera suficiente para alimentar 800.000 hogares en Estados Unidos (con lo que gastan en aire acondicionado cada temporada), estos centros de datos OpenAI consumirían tanta energía como más de 44 millones de hogares. El Financial Times señala un contexto más amplio: en California hay casi el triple de casas.
Y el hecho de que las empresas estén tan interesadas en compartir estos datos de rendimiento ha llevado a esto Algunos acuñan el término “Bragawatt”. Este neologismo es una combinación sarcástica de «alardear», «alardear» y «vatio», la unidad de actuación. Es difícil encontrar un nombre en español, pero en el fondo se trata de un alarde que utilizan algunas empresas para exagerar públicamente las capacidades de consumo energético previstas para sus infraestructuras.
Hay varias razones para ello, pero como ocurre con cualquier tipo de anuncio de empresas “públicas” (es decir, cotizadas), el objetivo es atraer la atención tanto de la prensa como del sector tecnológico y, sobre todo, de los inversores.
En el entorno económico comentan que estas cifras rimbombantes no siempre se mantienen, pero más allá del alarde de marketingtodo tiene un fondo. Abierto AI preguntó El gobierno de EE. UU. está asegurando 100 GW anualmente para impulsar los diversos desarrollos de IA del país, y NVIDIA ha explicado bastante bien por qué estimar la demanda de estos centros es un problema.
en uno el más joven Informe, la empresa comentó algo muy interesante:
A diferencia de un centro de datos tradicional que ejecuta miles de tareas independientes, una “fábrica” de IA funciona como un sistema único. Al entrenar un modelo de lenguaje grande (LLM), miles de GPU realizan ciclos intensivos de cálculo, seguidos de períodos de intercambio de datos. Todo sucede en perfecta sincronización, creando un perfil energético caracterizado por fluctuaciones de carga masivas y rápidas.
El consumo de energía de un rack puede pasar de un estado «inactivo» de aproximadamente un 30 % de utilización a un 100 % y viceversa en cuestión de milisegundos. Esto obliga a los ingenieros a sobredimensionar los componentes para soportar la corriente máxima en lugar del promedio, lo que aumenta los costos y los requisitos de espacio.
Cuando estas fluctuaciones se suman en todo un espacio de datos (lo que puede equivaler a cientos de megavatios de subida y bajada en segundos), representan una amenaza significativa para la estabilidad de la red eléctrica y hacen que la conectividad a la red sea un cuello de botella crítico para la expansión de la IA.
Aparte de los derechos de fanfarronear antes mencionados, hay algo de sustancia en las enormes cifras que citan las empresas. Y lo que dice Nvidia está respaldado por datos. Las grandes empresas tecnológicas de Estados Unidos se están apoderando de centros clave de producción de energía, ya sean centrales nucleares o contratos con empresas de petróleo y gas.
El carbón está resurgiendo en medio de la descarbonización para alimentar los centros de datos “glotones”, y estamos viendo que este enfoque en LLM está impulsando a las principales compañías petroleras a cambiar sus planes para adoptar energías renovables. La IA necesita energía rápida que pueda soportar estos picos de rendimiento, y las energías renovables no parecen ser el camino a seguir en este momento.
Dado que estamos tratando con personajes grandiosos, Apreciación que el mundo gastará alrededor de 3 billones de dólares (“sus” tres billones) en centros de datos para 2029. Y para dar contexto, es el valor de la economía francesa en 2024. Si estamos hablando de una burbuja o no es otra cuestión, pero hay quienes creen que estos “vatios de fanfarria” son muy difíciles de creer. tambien quien Punto que la IA tendrá un impacto mayor que las tecnologías anteriores, incluida Internet, por lo que es posible que necesitemos toda esa energía.
Sólo el tiempo lo dirá.
Imagen | Ismail Enes Ayhan
En | Mientras Silicon Valley lucha por la electricidad, China la subsidia: así quiere ganar la guerra de la IA








