Ciencia y Tecnología
En la IA primero fueron los teraflops, luego los parámetros. Ahora lo que importa son los ‘bragawatts’
La conversación tecnológica orbita alrededor de modas, y no hay nada tan de moda como la inteligencia artificial. Todos los países que quieren formar parte de la conversación están desarrollando sus modelos y herramientas y es interesante cómo la geopolítica lo impregna todo: EEUU buscando ser soberano mientras China quiere monetizar desde ya.
Pero tan interesante como las capacidades de un modelo u otro, es hablar de dos conceptos que están totalmente alineados: los centros de datos que alimentan la ingente cantidad de cálculo necesaria para entrenar a la inteligencia artificial y, evidentemente, de dónde sacan esa absurda cantidad de energía.
Y fruto de esa conversación ha nacido un término fascinante: el de los ‘bragawatts’.
Los ‘bragawatts’ como la fanfarronada de la IA
Algo común cuando empresas como OpenAI o Google anuncian nuevos centros de datos enfocados a la IA es que den un número rimbombante sobre la cantidad de energía que consumirá. Recientemente, OpenAI anunció un nuevo campus en Michigan que, unido a otros seis también revelados hace poco, necesitarán más de 8 GW para funcionar.
También hablan de dinero: un plan lanzado en enero de este año de 500.000 millones de dólares y 10 GW de capacidad planificada.
Según la empresa, es “la infraestructura necesaria para avanzar en la IA y reindustrializar el país”. En Finanfial Times han hecho las cuentas y, con el proyecto de Michigan, la empresa tiene 46 GW de potencia informática. Como al hablar de operaciones como la compra de Activision-Blizzard por parte de Microsoft por 75.000 millones de dólares, hace falta contexto porque es complicado imaginar números tan enormes.
Si 1 GW da para alimentar 800.000 hogares de Estados Unidos (con lo que gastan en aire acondicionado en cualquier época del año), estos centros de datos de OpenAI consumirían tanta energía como más de 44 millones de hogares. Más contexto que apuntan en Financial Times: casi tres veces todas las viviendas que hay en California.
Y que las empresas den estos datos de potencia tan alegremente ha llevado a que algunos acuñen el término ‘bragawatt’. Este neologismo es una combinación sarcástica entre ‘brag’, “presumir”, y ‘watts’, la unidad de potencia. En castellano es complejo encontrar un nombre, pero básicamente es una fanfarronada, algo que algunas empresas utilizan, exagerando públicamente las capacidades de consumo energético previstas para sus infraestructuras.
Hay varios motivos por los que se hace esto, pero como ocurre en cualquier tipo de anuncio por parte de empresas que son ‘públicas’ -las que cotizan en bolsa-, el objetivo es atraer la atención tanto de la prensa como del sector tecnológico y, sobre todo, de los inversores.
En el medio económico comentan que no siempre se cumplen esas rimbombantes cifras, pero más allá de la fanfarronada de marketing, hay un fondo en todo esto. OpenAI pidió al gobierno estadounidense que asegurara 100 GW anuales para alimentar los diferentes desarrollos de IA del país y NVIDIA explicó bastante bien por qué estimar la demanda de estos centros es un problema.
En un reciente informe, la compañía comentó algo muy interesante:
A diferencia de un centro de datos tradicional, que ejecuta miles de tareas no relacionadas entre sí, una “fábrica” de IA funciona como un único sistema. Al entrenar un modelo de lenguaje grande, o LLM, miles de GPU realizan ciclos de cálculo intensivos, seguidos de periodos de intercambio de datos. Todo se hace en una sincronía perfecta que genera un perfil energético caracterizado por variaciones de carga masivas y rápidas.
El consumo eléctrico de un rack puede pasar de un estado “inactivo”, en torno al 30% de utilización, al 100% y volver de nuevo en cuestión de milisegundos. Esto obliga a los ingenieros a sobredimensionar los componentes para soportar la corriente máxima, no la media, lo que incrementa los costes y el espacio necesario.
Cuando se agregan estas oscilaciones a lo largo de toda una sala de datos -que pueden representar cientos de megavatios subiendo y bajando en segundos-, suponen una amenaza significativa para la estabilidad de la red eléctrica, convirtiendo la interconexión con la red en un cuello de botella clave para la expansión de la IA.
Por tanto, más allá de la comentada fanfarronada, sí hay un poso en esas cifras enormes que dan las empresas. Y lo que comenta Nvidia está respaldado por los datos. Las grandes tecnológicas de Estados Unidos están haciéndose con importantes centros de producción de electricidad bien nuclear o con contratos con empresas de petróleo y gas.
El carbón está resurgiendo en plena descarbonización para alimentar a los ‘glotones’ centros de datos y estamos viendo que ese enfoque en los LLM está llevando a grandes petroleras a dar un volantazo en sus planes de adopción de las energías renovables. La IA necesita energía rápida capaz de dar soporte a esos picos de rendimiento, y las renovables no parecen el camino por el momento.
Ya que estamos con cifras grandilocuentes, se estima que, de aquí a 2029, el mundo se gastará unos 3 billones de dólares (“sus” tres trillones) en centros de datos. Y por dar más contexto, es lo que valía la economía de Francia en 2024. Si hablamos de una burbuja o no, es otro tema, pero hay quien opina que esos ‘fanfarrovatios’ son muy difíciles de creer. También quien apunta que la IA tendrá más impacto que las tecnologías hasta ahora, incluida Internet, por lo que es factible que necesitemos toda esa energía.
Sólo el tiempo lo dirá.
Imagen | İsmail Enes Ayhan
En Xataka | Mientras Silicon Valley busca electricidad, China la subvenciona: así quiere ganar la guerra de la IA
–
La noticia
En la IA primero fueron los teraflops, luego los parámetros. Ahora lo que importa son los ‘bragawatts’
fue publicada originalmente en
Xataka
por
Alejandro Alcolea
.
La conversación tecnológica orbita alrededor de modas, y no hay nada tan de moda como la inteligencia artificial. Todos los países que quieren formar parte de la conversación están desarrollando sus modelos y herramientas y es interesante cómo la geopolítica lo impregna todo: EEUU buscando ser soberano mientras China quiere monetizar desde ya.
Pero tan interesante como las capacidades de un modelo u otro, es hablar de dos conceptos que están totalmente alineados: los centros de datos que alimentan la ingente cantidad de cálculo necesaria para entrenar a la inteligencia artificial y, evidentemente, de dónde sacan esa absurda cantidad de energía.
Y fruto de esa conversación ha nacido un término fascinante: el de los ‘bragawatts’.
Los ‘bragawatts’ como la fanfarronada de la IAAlgo común cuando empresas como OpenAI o Google anuncian nuevos centros de datos enfocados a la IA es que den un número rimbombante sobre la cantidad de energía que consumirá. Recientemente, OpenAI anunció un nuevo campus en Michigan que, unido a otros seis también revelados hace poco, necesitarán más de 8 GW para funcionar.
También hablan de dinero: un plan lanzado en enero de este año de 500.000 millones de dólares y 10 GW de capacidad planificada.
En Xataka
Mientras Silicon Valley busca electricidad, China la subvenciona: así quiere ganar la guerra de la IA
Según la empresa, es “la infraestructura necesaria para avanzar en la IA y reindustrializar el país”. En Finanfial Times han hecho las cuentas y, con el proyecto de Michigan, la empresa tiene 46 GW de potencia informática. Como al hablar de operaciones como la compra de Activision-Blizzard por parte de Microsoft por 75.000 millones de dólares, hace falta contexto porque es complicado imaginar números tan enormes.
Si 1 GW da para alimentar 800.000 hogares de Estados Unidos (con lo que gastan en aire acondicionado en cualquier época del año), estos centros de datos de OpenAI consumirían tanta energía como más de 44 millones de hogares. Más contexto que apuntan en Financial Times: casi tres veces todas las viviendas que hay en California.
Y que las empresas den estos datos de potencia tan alegremente ha llevado a que algunos acuñen el término ‘bragawatt’. Este neologismo es una combinación sarcástica entre ‘brag’, “presumir”, y ‘watts’, la unidad de potencia. En castellano es complejo encontrar un nombre, pero básicamente es una fanfarronada, algo que algunas empresas utilizan, exagerando públicamente las capacidades de consumo energético previstas para sus infraestructuras.
Hay varios motivos por los que se hace esto, pero como ocurre en cualquier tipo de anuncio por parte de empresas que son ‘públicas’ -las que cotizan en bolsa-, el objetivo es atraer la atención tanto de la prensa como del sector tecnológico y, sobre todo, de los inversores.
En el medio económico comentan que no siempre se cumplen esas rimbombantes cifras, pero más allá de la fanfarronada de marketing, hay un fondo en todo esto. OpenAI pidió al gobierno estadounidense que asegurara 100 GW anuales para alimentar los diferentes desarrollos de IA del país y NVIDIA explicó bastante bien por qué estimar la demanda de estos centros es un problema.
En un reciente informe, la compañía comentó algo muy interesante:
A diferencia de un centro de datos tradicional, que ejecuta miles de tareas no relacionadas entre sí, una “fábrica” de IA funciona como un único sistema. Al entrenar un modelo de lenguaje grande, o LLM, miles de GPU realizan ciclos de cálculo intensivos, seguidos de periodos de intercambio de datos. Todo se hace en una sincronía perfecta que genera un perfil energético caracterizado por variaciones de carga masivas y rápidas.El consumo eléctrico de un rack puede pasar de un estado “inactivo”, en torno al 30% de utilización, al 100% y volver de nuevo en cuestión de milisegundos. Esto obliga a los ingenieros a sobredimensionar los componentes para soportar la corriente máxima, no la media, lo que incrementa los costes y el espacio necesario.Cuando se agregan estas oscilaciones a lo largo de toda una sala de datos -que pueden representar cientos de megavatios subiendo y bajando en segundos-, suponen una amenaza significativa para la estabilidad de la red eléctrica, convirtiendo la interconexión con la red en un cuello de botella clave para la expansión de la IA.Por tanto, más allá de la comentada fanfarronada, sí hay un poso en esas cifras enormes que dan las empresas. Y lo que comenta Nvidia está respaldado por los datos. Las grandes tecnológicas de Estados Unidos están haciéndose con importantes centros de producción de electricidad bien nuclear o con contratos con empresas de petróleo y gas.
En Xataka
La ironía geopolítica que estamos viviendo en la guerra de chips tiene a un inesperado beneficiario: Rusia
El carbón está resurgiendo en plena descarbonización para alimentar a los ‘glotones’ centros de datos y estamos viendo que ese enfoque en los LLM está llevando a grandes petroleras a dar un volantazo en sus planes de adopción de las energías renovables. La IA necesita energía rápida capaz de dar soporte a esos picos de rendimiento, y las renovables no parecen el camino por el momento.
Ya que estamos con cifras grandilocuentes, se estima que, de aquí a 2029, el mundo se gastará unos 3 billones de dólares (“sus” tres trillones) en centros de datos. Y por dar más contexto, es lo que valía la economía de Francia en 2024. Si hablamos de una burbuja o no, es otro tema, pero hay quien opina que esos ‘fanfarrovatios’ son muy difíciles de creer. También quien apunta que la IA tendrá más impacto que las tecnologías hasta ahora, incluida Internet, por lo que es factible que necesitemos toda esa energía.
Sólo el tiempo lo dirá.
Imagen | İsmail Enes Ayhan
En Xataka | Mientras Silicon Valley busca electricidad, China la subvenciona: así quiere ganar la guerra de la IA
– La noticia
En la IA primero fueron los teraflops, luego los parámetros. Ahora lo que importa son los ‘bragawatts’
fue publicada originalmente en
Xataka
por
Alejandro Alcolea
.


