Ciencia y Tecnología
"El problema es Sam Altman”: la industria de la IA se enamoró de OpenAI, pero no se fía ni un pelo de su CEO
<p>
 <img src="https://i.blogs.es/d46a28/sam-altman-sonrisa/1024_2000.jpeg" alt='"El problema es Sam Altman”: la industria de la IA se enamoró de OpenAI, pero no se fía ni un pelo de su CEO '>
 </p>
<p>En OpenAI ven un futuro en el que la semana laborales debería tener cuatro días. No solo eso: cada ciudadano debería recibir una parte del crecimiento económico generado por la IA. Son algunas de las propuestas que la compañía <a rel="noopener, noreferrer" href="https://openai.com/index/industrial-policy-for-the-intelligence-age/">ha publicado</a> ayer con el objetivo de prepararnos para la "era de la inteligencia". </p>
<p><!-- BREAK 1 --></p>
<p>Y justo el día que publicaban esa propuesta plagada de buenas y tranquilizadoras intenciones, llegaba un mazazo para el CEO de OpenAI, Sam Altman. <a rel="noopener, noreferrer" href="https://www.newyorker.com/magazine/2026/04/13/sam-altman-may-control-our-future-can-he-be-trusted">Una investigación</a> publicada en The New Yorker volvía a poner en tela de juicio su forma de actuar, muy criticada por parte de expertos e ingenieros que trabajaron con él. La conclusión de todos ellos: mejor no te fíes de Sam Altman.</p>
<p><!-- BREAK 2 --></p>
<p><strong>La llegada de la era de la inteligencia</strong>. La que denominan como "era de la inteligencia" tendrá sin duda impacto negativo en algunos ámbitos, pero en OpenAI proponen con su documento hacer cambios que mitiguen esos problemas. Entre las medidas más llamativas destaca la creación de un "fondo de riqueza pública" que repartirá dividendos de la IA directamente entre los ciudadanos, independientemente de su estado laboral. </p>
<p><!-- BREAK 3 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/literatura-comics-y-juegos/empire-of-ai-e-altman-esta-construyendo-imperio-openai-uno-algunas-luces-muchas-sombras" class="pivot-outboundlink" data-vars-post-title="Un periodista ha entrevistado a cientos de personas para entender qué quiere conseguir Sam Altman con la IA. Y hay sombras"><br />
 <img alt="Un periodista ha entrevistado a cientos de personas para entender qué quiere conseguir Sam Altman con la IA. Y hay sombras" width="375" height="142" src="https://i.blogs.es/13a2d1/empire/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/literatura-comics-y-juegos/empire-of-ai-e-altman-esta-construyendo-imperio-openai-uno-algunas-luces-muchas-sombras" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Un periodista ha entrevistado a cientos de personas para entender qué quiere conseguir Sam Altman con la IA. Y hay sombras">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/literatura-comics-y-juegos/empire-of-ai-e-altman-esta-construyendo-imperio-openai-uno-algunas-luces-muchas-sombras" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Un periodista ha entrevistado a cientos de personas para entender qué quiere conseguir Sam Altman con la IA. Y hay sombras">Un periodista ha entrevistado a cientos de personas para entender qué quiere conseguir Sam Altman con la IA. Y hay sombras</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>Que trabajen las máquinas (y nos paguen por ello)</strong>. Sugieren también impuestos a la mano de obra automatizada para financiar la seguridad social, y también proyectos piloto de semanas laborales de cuatro días sin reducción salarial. La propuesta es llamativa y busca, cómo no, tranquilizar a los ciudadanos ante amenazas como la de la pérdida de empleo que puede provocar la adopción masiva de la IA. El problema es que esa propuesta llega en un momento delicado para una OpenAI en plena crisis reputacional.</p>
<p><!-- BREAK 4 --></p>
<p><strong>¿Cortina de humo?</strong> Esa propuesta llena de optimismo contrasta con el reportaje publicado en The New Yorker y en el que los autores entrevistaron a más de 100 personas "con conocimiento de primera mano de cómo Altman se comporta en los negocios". Y entre ellos, rivales como <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/nueva-empresa-ilya-sutskever-tiene-objetivo-claro-crear-superinteligencia-seguridad-nuclear" data-vars-post-title='La nueva empresa de Ilya Sutskever tiene un objetivo claro: crear una superinteligencia con seguridad "nuclear"' data-vars-post-url="https://www.xataka.com/robotica-e-ia/nueva-empresa-ilya-sutskever-tiene-objetivo-claro-crear-superinteligencia-seguridad-nuclear">Ilya Sutskever</a> o sobre todo <a class="text-outboundlink" href="https://www.xataka.com/empresas-y-economia/anthropic-ha-abandonado-su-principio-importante-no-pausara-modelos-peligrosos-competencia-saca-antes" data-vars-post-title="Dario Amodei fundó Anthropic porque OpenAI no se tomaba en serio los riesgos de la IA. Ahora va a ceder a esos riesgos" data-vars-post-url="https://www.xataka.com/empresas-y-economia/anthropic-ha-abandonado-su-principio-importante-no-pausara-modelos-peligrosos-competencia-saca-antes">Dario Amodei</a> que fundaron sus propias startups. Ambos criticaban duramente a Altman. Sutskever acumuló documentos internos y mensajes en los que se mostraban engaños y manipulaciones. Amodei afirmaba que el obstáculo para la seguridad de la IA es el propio Altman, que deja ese ámbito en segundo plano frente a la ambición de poder personal y crecimiento desmedido de la compañía. Para sus antiguos socios Altman no es un visionario, sino un actor con una pose calculada.</p>
<p><!-- BREAK 5 --></p>
<p><strong>Dice una cosa, hace otra distinta</strong>. El escándalo del <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/sam-altman-deja-openai-esto-todo-que-sabemos-su-sorpresiva-salida" data-vars-post-title="Sam Altman deja OpenAI: esto es todo lo que sabemos de su inesperado despido" data-vars-post-url="https://www.xataka.com/robotica-e-ia/sam-altman-deja-openai-esto-todo-que-sabemos-su-sorpresiva-salida">despido</a> y <a class="text-outboundlink" href="https://www.xataka.com/empresas-y-economia/cronologia-crisis-openai-todo-que-ha-pasado-despido-sam-altman-hoy" data-vars-post-title="Cronología de la crisis de OpenAI: todo lo que ha pasado desde el despido de Sam Altman hasta hoy" data-vars-post-url="https://www.xataka.com/empresas-y-economia/cronologia-crisis-openai-todo-que-ha-pasado-despido-sam-altman-hoy">posterior retorno</a> de Altman se debió precisamente a esa actitud en la que el consejo lo acusaba de que "no había sido consistentemente franco en sus comunicaciones". Es lo mismo que hemos leído en otras ocasiones: Altman tiene una personalidad dual. En él se mezclan el deseo patológico de gustar y ser aceptado, con la falta de preocupación total por las consecuencias de sus metiras a largo plazo. Le dice a sus interlocutores lo que quieren oír, para luego hacer lo que realmente quería desde el principio. Es algo que por ejemplo narra una y otra vez Karen Hao <a class="text-outboundlink" href="https://www.xataka.com/literatura-comics-y-juegos/empire-of-ai-e-altman-esta-construyendo-imperio-openai-uno-algunas-luces-muchas-sombras" data-vars-post-title="Un periodista ha entrevistado a cientos de personas para entender qué quiere conseguir Sam Altman con la IA. Y hay sombras" data-vars-post-url="https://www.xataka.com/literatura-comics-y-juegos/empire-of-ai-e-altman-esta-construyendo-imperio-openai-uno-algunas-luces-muchas-sombras">en su libro 'Empire of AI'</a>, en el que, todo sea dicho, erró al calcular el consumo de agua de centros de datos mencionados en sus estudios. En el reportaje mencionan como <a class="text-outboundlink" href="https://www.xataka.com.mx/legislacion-y-derechos/el-documental-de-aaron-swartz-the-internet-s-own-boy-se-puede-ver-gratis-globalmente" data-vars-post-title='El documental de Aaron Swartz, "The Internet’s Own Boy" se puede ver gratis globalmente ' data-vars-post-url="https://www.xataka.com.mx/legislacion-y-derechos/el-documental-de-aaron-swartz-the-internet-s-own-boy-se-puede-ver-gratis-globalmente">el conocido programador Aaron Swartz</a> lo conoció antes de <a class="text-outboundlink" href="https://www.genbeta.com/activismo-online/por-que-acabar-con-aaron-swartz" data-vars-post-title="¿Por qué acabar con Aaron Swartz?" data-vars-post-url="https://www.genbeta.com/activismo-online/por-que-acabar-con-aaron-swartz">morir en 2013</a> y comentó de él ya entonces que "es un sociópata".</p>
<p><!-- BREAK 6 --></p>
<p><strong>La imagen pública lo es todo</strong>. La publicación del documento de OpenAI se produce en un momento especialmente crítico para la empresa, que está envuelta en una crisis reputacional y estratégica. Anthropic ha logrado convertirse en la niña bonita de la industria de la IA —<a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/que-anthropic-haya-capado-openclaw-comprensible-que-haga-asi-confirma-que-se-estan-convirtiendo-nintendo-ia" data-vars-post-title='Anthropic ha capado OpenClaw por un motivo: está construyendo el "jardín amurallado" que Nintendo perfeccionó' data-vars-post-url="https://www.xataka.com/robotica-e-ia/que-anthropic-haya-capado-openclaw-comprensible-que-haga-asi-confirma-que-se-estan-convirtiendo-nintendo-ia">sin ser ni mucho menos perfecta</a>— y OpenAI se ha dado cuenta de que estaba experimentando con demasiadas aplicaciones de la IA que no eran rentables y ahora quiere reenfocarse a aquello que lo da. Las buenas intenciones mostradas en el documento tratan de poner de su lado a la opinión pública <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/openai-empresa-exitosa-planeta-tambien-que-planea-perder-85-000-millones-dolares-solo-ano" data-vars-post-title="OpenAI y Anthropic se han propuesto lo imposible: perder 85.000 millones de dólares en un año y sobrevivir" data-vars-post-url="https://www.xataka.com/robotica-e-ia/openai-empresa-exitosa-planeta-tambien-que-planea-perder-85-000-millones-dolares-solo-ano">justo cuando la empresa planea su salida a bolsa</a>.</p>
<p><!-- BREAK 7 --></p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p><strong>Aprendiendo del pasado</strong>. Los críticos de Altman revelan que es un experto en diseñar mecanismos de control que se convierten en humo. Apoya regulaciones de la IA (al menos, <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/sam-altman-tiene-claro-que-para-regular-ia-hay-que-licenciarla-eso-especialmente-bueno-para-openai" data-vars-post-title="Sam Altman tiene claro que para regular la IA hay que licenciarla. Eso es especialmente bueno para OpenAI " data-vars-post-url="https://www.xataka.com/robotica-e-ia/sam-altman-tiene-claro-que-para-regular-ia-hay-que-licenciarla-eso-especialmente-bueno-para-openai">las que le favorecen</a>) e impulsa públicamente <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/nueva-crisis-sacude-a-openai-su-equipo-superalineacion-temor-a-largo-plazo-ia-fuera-control" data-vars-post-title="Una nueva crisis sacude a OpenAI y su equipo de 'súperalineación'. El temor a largo plazo: una IA fuera de control " data-vars-post-url="https://www.xataka.com/robotica-e-ia/nueva-crisis-sacude-a-openai-su-equipo-superalineacion-temor-a-largo-plazo-ia-fuera-control">comités de ética</a> y de alineamiento y seguridad de la IA que en realidad luego tumba de forma interna, al menos según quienes trabajan con él. Pasó cuando prometió destinar el 20% de la capacidad de cómputo al equipo de superalineamiento, para luego en realidad ceder solo entre el 1 y el 2% de esa capacidad. Jan Leike, que fue nombrado colíder de ese equipo junto a Sutskever, <a rel="noopener, noreferrer" href="https://x.com/janleike/status/1791498174659715494">dimitió en mayo de 2024</a> indicando que "la cultura y los procesos de seguridad han quedado relegados a un segundo plano frente a productos llamativos", explicaba <a rel="noopener, noreferrer" href="https://x.com/janleike/status/1791498184671605209">en un hilo en X</a>. Acabó fichando por Anthropic.</p>
<p><!-- BREAK 8 --></p>
<p><strong>Críticas interesadas</strong>. Aunque la trayectoria de Altman al frente de OpenAI –<a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/sam-altman-lleva-anos-diciendo-cosa-haciendo-contraria-esta-vez-hizo-48-horas" data-vars-post-title="OpenAI celebró que Anthropic no se rindiese a las exigencias del Pentágono. Acto seguido se rindió ella" data-vars-post-url="https://www.xataka.com/robotica-e-ia/sam-altman-lleva-anos-diciendo-cosa-haciendo-contraria-esta-vez-hizo-48-horas">con lo que pasó con el Pentágono</a> como ejemplo reciente— refuerza los comentarios de quienes le critican, hay que recordar que la competencia en esta industria es actualmente feroz. Muchos de los que participan en el reportaje son rivales directos y por tanto sus críticas, veladas o no, son en parte interesadas porque perjudican a su competidor. </p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/cada-nuevo-modelo-ia-mejor-historia-que-llega-siguiente-anthropic-openai-han-convertido-eso-negocio" data-vars-post-title='Hay un nueva generación de modelos IA a las puertas y Anthropic tiene que venderlos: "El más grande e inteligente"' data-vars-post-url="https://www.xataka.com/robotica-e-ia/cada-nuevo-modelo-ia-mejor-historia-que-llega-siguiente-anthropic-openai-han-convertido-eso-negocio">Hay un nueva generación de modelos IA a las puertas y Anthropic tiene que venderlos: "El más grande e inteligente"</a></p>
<p></p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/problema-sam-altman-industria-ia-se-enamoro-openai-no-se-fia-pelo-su-ceo?utm_source=feedburner&;utm_medium=feed&;utm_campaign=07_Apr_2026"><br />
 <em> "El problema es Sam Altman”: la industria de la IA se enamoró de OpenAI, pero no se fía ni un pelo de su CEO </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=07_Apr_2026"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/javier-pastor?utm_source=feedburner&;utm_medium=feed&;utm_campaign=07_Apr_2026"><br />
 Javier Pastor<br />
 </a><br />
 . </p>
<p> En OpenAI ven un futuro en el que la semana laborales debería tener cuatro días. No solo eso: cada ciudadano debería recibir una parte del crecimiento económico generado por la IA. Son algunas de las propuestas que la compañía ha publicado ayer con el objetivo de prepararnos para la "era de la inteligencia". </p>
<p>Y justo el día que publicaban esa propuesta plagada de buenas y tranquilizadoras intenciones, llegaba un mazazo para el CEO de OpenAI, Sam Altman. Una investigación publicada en The New Yorker volvía a poner en tela de juicio su forma de actuar, muy criticada por parte de expertos e ingenieros que trabajaron con él. La conclusión de todos ellos: mejor no te fíes de Sam Altman.</p>
<p>La llegada de la era de la inteligencia. La que denominan como "era de la inteligencia" tendrá sin duda impacto negativo en algunos ámbitos, pero en OpenAI proponen con su documento hacer cambios que mitiguen esos problemas. Entre las medidas más llamativas destaca la creación de un "fondo de riqueza pública" que repartirá dividendos de la IA directamente entre los ciudadanos, independientemente de su estado laboral. </p>
<p> En Xataka</p>
<p> Un periodista ha entrevistado a cientos de personas para entender qué quiere conseguir Sam Altman con la IA. Y hay sombras</p>
<p>Que trabajen las máquinas (y nos paguen por ello). Sugieren también impuestos a la mano de obra automatizada para financiar la seguridad social, y también proyectos piloto de semanas laborales de cuatro días sin reducción salarial. La propuesta es llamativa y busca, cómo no, tranquilizar a los ciudadanos ante amenazas como la de la pérdida de empleo que puede provocar la adopción masiva de la IA. El problema es que esa propuesta llega en un momento delicado para una OpenAI en plena crisis reputacional.</p>
<p>¿Cortina de humo? Esa propuesta llena de optimismo contrasta con el reportaje publicado en The New Yorker y en el que los autores entrevistaron a más de 100 personas "con conocimiento de primera mano de cómo Altman se comporta en los negocios". Y entre ellos, rivales como Ilya Sutskever o sobre todo Dario Amodei que fundaron sus propias startups. Ambos criticaban duramente a Altman. Sutskever acumuló documentos internos y mensajes en los que se mostraban engaños y manipulaciones. Amodei afirmaba que el obstáculo para la seguridad de la IA es el propio Altman, que deja ese ámbito en segundo plano frente a la ambición de poder personal y crecimiento desmedido de la compañía. Para sus antiguos socios Altman no es un visionario, sino un actor con una pose calculada.</p>
<p>Dice una cosa, hace otra distinta. El escándalo del despido y posterior retorno de Altman se debió precisamente a esa actitud en la que el consejo lo acusaba de que "no había sido consistentemente franco en sus comunicaciones". Es lo mismo que hemos leído en otras ocasiones: Altman tiene una personalidad dual. En él se mezclan el deseo patológico de gustar y ser aceptado, con la falta de preocupación total por las consecuencias de sus metiras a largo plazo. Le dice a sus interlocutores lo que quieren oír, para luego hacer lo que realmente quería desde el principio. Es algo que por ejemplo narra una y otra vez Karen Hao en su libro 'Empire of AI', en el que, todo sea dicho, erró al calcular el consumo de agua de centros de datos mencionados en sus estudios. En el reportaje mencionan como el conocido programador Aaron Swartz lo conoció antes de morir en 2013 y comentó de él ya entonces que "es un sociópata".</p>
<p>La imagen pública lo es todo. La publicación del documento de OpenAI se produce en un momento especialmente crítico para la empresa, que está envuelta en una crisis reputacional y estratégica. Anthropic ha logrado convertirse en la niña bonita de la industria de la IA —sin ser ni mucho menos perfecta— y OpenAI se ha dado cuenta de que estaba experimentando con demasiadas aplicaciones de la IA que no eran rentables y ahora quiere reenfocarse a aquello que lo da. Las buenas intenciones mostradas en el documento tratan de poner de su lado a la opinión pública justo cuando la empresa planea su salida a bolsa.</p>
<p>Aprendiendo del pasado. Los críticos de Altman revelan que es un experto en diseñar mecanismos de control que se convierten en humo. Apoya regulaciones de la IA (al menos, las que le favorecen) e impulsa públicamente comités de ética y de alineamiento y seguridad de la IA que en realidad luego tumba de forma interna, al menos según quienes trabajan con él. Pasó cuando prometió destinar el 20% de la capacidad de cómputo al equipo de superalineamiento, para luego en realidad ceder solo entre el 1 y el 2% de esa capacidad. Jan Leike, que fue nombrado colíder de ese equipo junto a Sutskever, dimitió en mayo de 2024 indicando que "la cultura y los procesos de seguridad han quedado relegados a un segundo plano frente a productos llamativos", explicaba en un hilo en X. Acabó fichando por Anthropic.<br />
Críticas interesadas. Aunque la trayectoria de Altman al frente de OpenAI –con lo que pasó con el Pentágono como ejemplo reciente— refuerza los comentarios de quienes le critican, hay que recordar que la competencia en esta industria es actualmente feroz. Muchos de los que participan en el reportaje son rivales directos y por tanto sus críticas, veladas o no, son en parte interesadas porque perjudican a su competidor. <br />
En Xataka | Hay un nueva generación de modelos IA a las puertas y Anthropic tiene que venderlos: "El más grande e inteligente"</p>
<p> &#8211; La noticia</p>
<p> "El problema es Sam Altman”: la industria de la IA se enamoró de OpenAI, pero no se fía ni un pelo de su CEO </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Javier Pastor</p>
<p> . </p>