Connect with us

Ciencia y Tecnología

OpenAI firma con Samsung y SK Hynix para una demanda de chips potencial de 900.000 obleas al mes. Es una cifra absurda

Published

on

OpenAI firma con Samsung y SK Hynix para una demanda de chips potencial de 900.000 obleas al mes. Es una cifra absurda

En Seúl se cerró un paquete de acuerdos que refleja hasta dónde está llegando la carrera por la inteligencia artificial. OpenAI se sentó con Samsung y SK para avanzar en su proyecto Stargate y las compañías apuntaron a una meta que sorprende por sí sola: 900.000 obleas de DRAM al mes. El plan, según las partes, pasa por reforzar la producción de memoria y estudiar nuevos centros de datos en Corea del Sur. Todo ello se anunció tras una serie de reuniones de Sam Altman, dirigentes empresariales y el propio presidente Lee Jae-myung.

La cita en la Oficina Presidencial de Seúl reunió a Sam Altman con los líderes de los mencionados conglomerados tecnológicos asiáticos, en presencia del presidente Lee Jae-myung. El tono fue de oportunidad compartida: Corea busca consolidarse como una de las tres potencias globales en inteligencia artificial y OpenAI necesita anclar su proyecto Stargate en regiones con músculo tecnológico. Ese encaje explica el interés de ambas partes en formalizar acuerdos que abarcan desde el suministro de memoria hasta la construcción de nuevos centros de datos, con la vista puesta en el largo plazo.

Un objetivo que puede poner en tensión a todo el sector de la memoria

Cuando hablamos de obleas nos referimos a discos de silicio que sirven de base para fabricar chips. De cada una, una vez completado el proceso, se cortan decenas o incluso cientos de circuitos que después se convierten en los módulos de memoria DRAM o en las pilas HBM que alimentan servidores y centros de datos. 

El volumen que se ha puesto sobre la mesa resulta desproporcionado si se compara con el mercado. Según TechInsights, la capacidad global de producción de obleas de DRAM de 300 milímetros fue de unos 2,07 millones al mes en 2024 y crecería hasta 2,25 millones en 2025. Alcanzar 900.000 significaría cerca del 39% de toda esa capacidad. Ningún fabricante individual llega a semejante cifra por sí solo, de modo que la magnitud del acuerdo refleja tanto la ambición de OpenAI como la presión creciente por asegurar el suministro de memoria avanzada.

Los documentos firmados incluyen compromisos preliminares para ampliar la producción de memoria y evaluar infraestructuras adicionales en Corea del Sur. Entre ellos figura la participación de Samsung SDS en el desarrollo de centros de datos, así como de Samsung C&T y Samsung Heavy Industries en su diseño y construcción. El Ministerio de Ciencia y TIC contempla evaluar emplazamientos fuera del área metropolitana de Seúl, y SK Telecom ha suscrito un acuerdo para estudiar la viabilidad de un centro en el suroeste del país. También se plantea explorar el despliegue de ChatGPT Enterprise y capacidades de API en operaciones corporativas. 

Centro De Datos Openai

Centro de datos de Stargate en Estados Unidos

Un punto clave en todo esto está en la diferencia entre usar y entrenar un modelo. Cuando alguien consulta un chatbot se activa la infraestructura de inferencia, mucho menos exigente. Pero para entrenar un sistema de nueva generación hacen falta miles de chips trabajando en paralelo, cada uno acompañado de módulos de memoria de alto rendimiento. Esa escala multiplica la necesidad de servidores, sistemas de enfriamiento y potencia eléctrica. En ese contexto, garantizar cientos de miles de obleas al mes no parece un exceso, sino una forma de asegurarse que la próxima oleada de modelos tenga el soporte material necesario.

El músculo de cómputo de OpenAI se apoya en alianzas de enorme calado. Con Oracle y SoftBank, la compañía prepara cinco centros de datos que aportarían varios gigavatios de capacidad. NVIDIA, por su parte, ha anunciado que invertiría hasta 100.000 millones de dólares y que daría acceso a más de 10 gigavatios a través de sus sistemas de entrenamiento.

Samsung Sk Hynix 1

La trayectoria de OpenAI no se entiende sin Microsoft, su primer gran socio. La apuesta inicial de 1.000 millones en 2019 y la posterior inversión de 10.000 millones dieron acceso a la nube de Azure, clave para entrenar los modelos que impulsaron ChatGPT. Con el tiempo, sin embargo, la compañía de Sam Altman ha empezado a reducir esa dependencia. Los últimos movimientos marcan un cambio de rumbo hacia infraestructuras en las que OpenAI tenga más control directo, una forma de asegurarse de no estar condicionada a un único proveedor.

Conviene recordar que muchos de los anuncios siguen siendo preliminares. Cartas de intención y memorandos marcan la voluntad de avanzar, pero los detalles concretos aún no se han cerrado. A la escala que plantea Stargate, los riesgos son evidentes: desde cuellos de botella en la producción de memoria de alto rendimiento hasta la disponibilidad de energía para alimentar instalaciones de varios gigavatios. A ello se suman los permisos necesarios y la complejidad de coordinar proyectos con tantos actores. De momento, lo firmado abre un camino, pero está por ver qué se materializa y en qué plazos.

Imágenes | Sam Altman | Samsung | SK Hynix | Xataka con Grok

En Xataka | Llevo dos días enganchado a Sora 2: estoy generando memes absurdos donde yo soy el protagonista y no puedo parar


La noticia

OpenAI firma con Samsung y SK Hynix para una demanda de chips potencial de 900.000 obleas al mes. Es una cifra absurda

fue publicada originalmente en

Xataka

por
Javier Marquez

.

​En Seúl se cerró un paquete de acuerdos que refleja hasta dónde está llegando la carrera por la inteligencia artificial. OpenAI se sentó con Samsung y SK para avanzar en su proyecto Stargate y las compañías apuntaron a una meta que sorprende por sí sola: 900.000 obleas de DRAM al mes. El plan, según las partes, pasa por reforzar la producción de memoria y estudiar nuevos centros de datos en Corea del Sur. Todo ello se anunció tras una serie de reuniones de Sam Altman, dirigentes empresariales y el propio presidente Lee Jae-myung.

La cita en la Oficina Presidencial de Seúl reunió a Sam Altman con los líderes de los mencionados conglomerados tecnológicos asiáticos, en presencia del presidente Lee Jae-myung. El tono fue de oportunidad compartida: Corea busca consolidarse como una de las tres potencias globales en inteligencia artificial y OpenAI necesita anclar su proyecto Stargate en regiones con músculo tecnológico. Ese encaje explica el interés de ambas partes en formalizar acuerdos que abarcan desde el suministro de memoria hasta la construcción de nuevos centros de datos, con la vista puesta en el largo plazo.

Un objetivo que puede poner en tensión a todo el sector de la memoria

Cuando hablamos de obleas nos referimos a discos de silicio que sirven de base para fabricar chips. De cada una, una vez completado el proceso, se cortan decenas o incluso cientos de circuitos que después se convierten en los módulos de memoria DRAM o en las pilas HBM que alimentan servidores y centros de datos. 

El volumen que se ha puesto sobre la mesa resulta desproporcionado si se compara con el mercado. Según TechInsights, la capacidad global de producción de obleas de DRAM de 300 milímetros fue de unos 2,07 millones al mes en 2024 y crecería hasta 2,25 millones en 2025. Alcanzar 900.000 significaría cerca del 39% de toda esa capacidad. Ningún fabricante individual llega a semejante cifra por sí solo, de modo que la magnitud del acuerdo refleja tanto la ambición de OpenAI como la presión creciente por asegurar el suministro de memoria avanzada.Los documentos firmados incluyen compromisos preliminares para ampliar la producción de memoria y evaluar infraestructuras adicionales en Corea del Sur. Entre ellos figura la participación de Samsung SDS en el desarrollo de centros de datos, así como de Samsung C&T y Samsung Heavy Industries en su diseño y construcción. El Ministerio de Ciencia y TIC contempla evaluar emplazamientos fuera del área metropolitana de Seúl, y SK Telecom ha suscrito un acuerdo para estudiar la viabilidad de un centro en el suroeste del país. También se plantea explorar el despliegue de ChatGPT Enterprise y capacidades de API en operaciones corporativas. 

Centro de datos de Stargate en Estados Unidos

Un punto clave en todo esto está en la diferencia entre usar y entrenar un modelo. Cuando alguien consulta un chatbot se activa la infraestructura de inferencia, mucho menos exigente. Pero para entrenar un sistema de nueva generación hacen falta miles de chips trabajando en paralelo, cada uno acompañado de módulos de memoria de alto rendimiento. Esa escala multiplica la necesidad de servidores, sistemas de enfriamiento y potencia eléctrica. En ese contexto, garantizar cientos de miles de obleas al mes no parece un exceso, sino una forma de asegurarse que la próxima oleada de modelos tenga el soporte material necesario.El músculo de cómputo de OpenAI se apoya en alianzas de enorme calado. Con Oracle y SoftBank, la compañía prepara cinco centros de datos que aportarían varios gigavatios de capacidad. NVIDIA, por su parte, ha anunciado que invertiría hasta 100.000 millones de dólares y que daría acceso a más de 10 gigavatios a través de sus sistemas de entrenamiento.

La trayectoria de OpenAI no se entiende sin Microsoft, su primer gran socio. La apuesta inicial de 1.000 millones en 2019 y la posterior inversión de 10.000 millones dieron acceso a la nube de Azure, clave para entrenar los modelos que impulsaron ChatGPT. Con el tiempo, sin embargo, la compañía de Sam Altman ha empezado a reducir esa dependencia. Los últimos movimientos marcan un cambio de rumbo hacia infraestructuras en las que OpenAI tenga más control directo, una forma de asegurarse de no estar condicionada a un único proveedor.

En Xataka

Las empresas de IA nos dicen que quieren lograr una AGI. Lo que realmente están conquistando es la economía de la atención

Conviene recordar que muchos de los anuncios siguen siendo preliminares. Cartas de intención y memorandos marcan la voluntad de avanzar, pero los detalles concretos aún no se han cerrado. A la escala que plantea Stargate, los riesgos son evidentes: desde cuellos de botella en la producción de memoria de alto rendimiento hasta la disponibilidad de energía para alimentar instalaciones de varios gigavatios. A ello se suman los permisos necesarios y la complejidad de coordinar proyectos con tantos actores. De momento, lo firmado abre un camino, pero está por ver qué se materializa y en qué plazos.Imágenes | Sam Altman | Samsung | SK Hynix | Xataka con GrokEn Xataka | Llevo dos días enganchado a Sora 2: estoy generando memes absurdos donde yo soy el protagonista y no puedo parar

– La noticia

OpenAI firma con Samsung y SK Hynix para una demanda de chips potencial de 900.000 obleas al mes. Es una cifra absurda

fue publicada originalmente en

Xataka

por
Javier Marquez

.   

​   

​ 

Continue Reading
Click to comment

Leave a Reply

Your email address will not be published. Required fields are marked *