Ciencia y Tecnología
Los escépticos de la IA avisaron de que nos estábamos emocionando mucho y no les creímos: la IA es tontísima
<p>
 <img src="https://i.blogs.es/aa4b94/chatgpt2/1024_2000.jpeg" alt="Los escépticos de la IA avisaron de que nos estábamos emocionando mucho y no les creímos: la IA es tontísima">
 </p>
<p><a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/gpt-5-esta-aqui-asi-lanzamiento-inteligencia-artificial-esperado-openai-carrera-cada-vez-renida" data-vars-post-title='OpenAI lanza GPT-5: un enorme modelo "unificado" con el que la empresa aspira a dar un gran salto respecto a los anteriores' data-vars-post-url="https://www.xataka.com/robotica-e-ia/gpt-5-esta-aqui-asi-lanzamiento-inteligencia-artificial-esperado-openai-carrera-cada-vez-renida">GPT-5</a> es <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/gpt-5-esta-aqui-asi-lanzamiento-inteligencia-artificial-esperado-openai-carrera-cada-vez-renida" data-vars-post-title='OpenAI lanza GPT-5: un enorme modelo "unificado" con el que la empresa aspira a dar un gran salto respecto a los anteriores' data-vars-post-url="https://www.xataka.com/robotica-e-ia/gpt-5-esta-aqui-asi-lanzamiento-inteligencia-artificial-esperado-openai-carrera-cada-vez-renida">algo mejor</a> que GPT-4. El problema de esa frase está en la palabra &#8220;algo&#8221;. El nuevo modelo &#8220;unificado&#8221; de OpenAI no parece representar el salto cualitativo que muchos esperaban, y eso <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/gpt-5-esta-aqui-asi-lanzamiento-inteligencia-artificial-esperado-openai-carrera-cada-vez-renida" data-vars-post-title='OpenAI lanza GPT-5: un enorme modelo "unificado" con el que la empresa aspira a dar un gran salto respecto a los anteriores' data-vars-post-url="https://www.xataka.com/robotica-e-ia/gpt-5-esta-aqui-asi-lanzamiento-inteligencia-artificial-esperado-openai-carrera-cada-vez-renida">ha vuelto a hacer sonar las alarmas</a>. Uno podría preguntar ¿y si la IA ya no se vuelve mucho mejor de lo que es ahora?, pero quizás eso esté pasando ya y la pregunta sea otra: ¿qué hacemos entonces?</p>
<p><!-- BREAK 1 --></p>
<p><strong>El escalado funciona, pero menos</strong>. En 2020 un equipo de investigadores de OpenAI publicaron <a rel="noopener, noreferrer" href="https://arxiv.org/abs/2001.08361">un estudio</a> titulado &#8220;Leyes del escalado para Modelos Neuronales de Lenguaje&#8221;. En él planteaban una especie de <a class="text-outboundlink" href="https://www.xataka.com/componentes/ley-moore-se-resiste-a-morir-asi-como-ha-conseguido-no-solo-seguir-viva-sino-continuar-plena-forma" data-vars-post-title="La ley de Moore se resiste a morir: así es como ha conseguido no solo seguir viva, sino continuar en plena forma" data-vars-post-url="https://www.xataka.com/componentes/ley-moore-se-resiste-a-morir-asi-como-ha-conseguido-no-solo-seguir-viva-sino-continuar-plena-forma">Ley de Moore</a> de la IA: cuantos más datos y cómputo dedicases a entrenar modelos, mejor serían. Aquella observación se demostró claramente cuando lanzaron GPT-3, que era 10 veces más grande que GPT-2 pero era mucho, muchísimo mejor que aquel modelo.</p>
<p><!-- BREAK 2 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/futuro-ia-apunta-a-ha-ocurrido-buscadores-hay-monopolio-a-vista" class="pivot-outboundlink" data-vars-post-title="Las empresas de IA saben que competir es de perdedores. Todas buscan convertirse en el monopolio de la IA"><br />
 <img alt="Las empresas de IA saben que competir es de perdedores. Todas buscan convertirse en el monopolio de la IA" width="375" height="142" src="https://i.blogs.es/f059dc/gini/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/futuro-ia-apunta-a-ha-ocurrido-buscadores-hay-monopolio-a-vista" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Las empresas de IA saben que competir es de perdedores. Todas buscan convertirse en el monopolio de la IA">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/futuro-ia-apunta-a-ha-ocurrido-buscadores-hay-monopolio-a-vista" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Las empresas de IA saben que competir es de perdedores. Todas buscan convertirse en el monopolio de la IA">Las empresas de IA saben que competir es de perdedores. Todas buscan convertirse en el monopolio de la IA</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>Desaceleración</strong>. Gary Marcus, profesor de psicología y ciencias neuronales en la Universidad de Nueva York, <a rel="noopener, noreferrer" href="https://nautil.us/deep-learning-is-hitting-a-wall-238440/">explicó en 2022</a> que aquel estudio no tenía mucho sentido: &#8220;las llamadas leyes del escalado no son leyes universales como la de la gravedad, sino simplemente meras observaciones que podrían no mantenerse para siempre&#8221;. Hasta Satya Nadella <a rel="noopener, noreferrer" href="https://www.youtube.com/watch?v=3YiB2OvK6sY">se mostró de acuerdo</a> con dicha afirmación hace unos meses en el evento Ignite 2024. Y como estamos viendo, sus dudas se han hecho realidad. El escalado funciona y los modelos son algo mejores que sus predecesores, pero <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/nuevo-gran-modelo-openai-apunta-a-algo-preocupante-desaceleracion-ia" data-vars-post-title="El nuevo gran modelo de OpenAI apunta a algo preocupante: una desaceleración de la IA " data-vars-post-url="https://www.xataka.com/robotica-e-ia/nuevo-gran-modelo-openai-apunta-a-algo-preocupante-desaceleracion-ia">la desaceleración parece estar ahí</a>.</p>
<p><!-- BREAK 3 --></p>
<p><strong>Pero GPT-5 no está tan mal</strong>. Lo cierto es que GPT-5 ha mejorado en métricas relevantes. Los responsables de Epoch AI <a rel="noopener, noreferrer" href="https://x.com/EpochAIResearch/status/1955667249252978741" data-id="noopener noreferrer">evaluaron</a> su comportamiento en <a rel="noopener, noreferrer" href="https://epoch.ai/frontiermath" data-id="noopener noreferrer">FrontierMath</a>, por ejemplo. Los resultados eran un poco mejores que su predecesor o4-mini, pero no había grandes saltos de rendimento. Aun así destacaban cómo GPT-5 sí ha sido el primer modelo en lograr resolver un problema concreto como si &#8220;hubiera comprendido totalmente el problema&#8221;.</p>
<p><!-- BREAK 4 --></p>
<div class="article-asset-image article-asset-normal article-asset-center">
<div class="asset-content">
<div class="caption-img ">
<p> <img alt="Captura De Pantalla 2025 08 14 A Las 10 42 52" class="centro_sinmarco" src="https://i.blogs.es/b66457/captura-de-pantalla-2025-08-14-a-las-10.42.52/450_1000.jpeg"></p>
<p> <span>En el ámbito de las matemáticas, GPT-5 se comporta algo mejor que sus predecesores, pero la diferencia no es radical. Los problemas más difíciles (Tier 4) siguen siendo casi imposibles para los modelos de IA. Fuente: Epoch AI.</span>
 </div>
</p></div>
</div>
<p><strong>Y piensa mejor</strong>. Otro análisis independiente del analista Zvi Mowshowitz <a rel="noopener, noreferrer" href="https://thezvi.substack.com/p/gpt-5s-are-alive-synthesis">señalaba</a> que aunque el modelo base de GPT-5 <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/gpt-5-esta-aqui-asi-lanzamiento-inteligencia-artificial-esperado-openai-carrera-cada-vez-renida" data-vars-post-title='OpenAI lanza GPT-5: un enorme modelo "unificado" con el que la empresa aspira a dar un gran salto respecto a los anteriores' data-vars-post-url="https://www.xataka.com/robotica-e-ia/gpt-5-esta-aqui-asi-lanzamiento-inteligencia-artificial-esperado-openai-carrera-cada-vez-renida">era correcto sin más</a>, sus variantes avanzadas (GPT-5 Pro y GPT-5 Thinking) eran una mejora sustancial respecto a o3-Pro y o3 respectivamente, sobre todo al mitigar las alucinaciones. Según sus datos, &#8220;GPT-5 Auto&#8221; (la versión base) parece un producto pobre a no ser que uses el plan gratuito de ChatGPT&#8221;.</p>
<p><!-- BREAK 5 --></p>
<p><strong>Igual lo que necesitamos es una IA simbólica</strong>. La IA simbólica (&#8220;clásica&#8221;) representa el conocimiento usando símbolos y reglas, y se basa en la lógica y el razonamiento formal para resolver problemas y tomar decisiones. Este tipo de IA <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/el-gran-debate-sobre-si-sera-posible-o-no-una-inteligencia-artificial" data-vars-post-title="El gran debate sobre si será posible o no una inteligencia artificial" data-vars-post-url="https://www.xataka.com/robotica-e-ia/el-gran-debate-sobre-si-sera-posible-o-no-una-inteligencia-artificial">dominó el panorama</a> de la IA hasta los 90, pero la falta de avances notables hizo que aquella disciplina se estancase y vivimos un invierno de la IA. &#8220;Salimos&#8221; de él con la IA conexionista, las redes neuronales que representan el conocimiento mediante conexiones y pesos de los nodos de una red de neuronas artificiales. Esta disciplina fue la que dio lugar al auge de la IA generativa y el éxito arrollador de ChatGPT y sus rivales. Su sorprendente buen comportamiento desató la actual fiebre de la IA, <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/frente-a-quienes-piensan-que-ia-se-esta-estancando-concepto-da-nuevas-esperanzas-funcion-sigmoide" data-vars-post-title="Frente a quienes piensan que la IA se está estancando, un concepto da nuevas esperanzas: la función sigmoide " data-vars-post-url="https://www.xataka.com/robotica-e-ia/frente-a-quienes-piensan-que-ia-se-esta-estancando-concepto-da-nuevas-esperanzas-funcion-sigmoide">pero los avances de rendimiento están desacelerando</a>.</p>
<p><!-- BREAK 6 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/no-sabemos-que-miden-exactamente-benchmarks-ia-asi-que-hemos-hablado-espanol-que-ha-creado-uno-dificiles" class="pivot-outboundlink" data-vars-post-title="No sabemos qué miden los benchmarks de IA. Así que hemos hablado con el español que ha creado uno de los más difíciles"><br />
 <img alt="No sabemos qué miden los benchmarks de IA. Así que hemos hablado con el español que ha creado uno de los más difíciles" width="375" height="142" src="https://i.blogs.es/4e26b0/robot-pizarra/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/no-sabemos-que-miden-exactamente-benchmarks-ia-asi-que-hemos-hablado-espanol-que-ha-creado-uno-dificiles" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="No sabemos qué miden los benchmarks de IA. Así que hemos hablado con el español que ha creado uno de los más difíciles">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/no-sabemos-que-miden-exactamente-benchmarks-ia-asi-que-hemos-hablado-espanol-que-ha-creado-uno-dificiles" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="No sabemos qué miden los benchmarks de IA. Así que hemos hablado con el español que ha creado uno de los más difíciles">No sabemos qué miden los benchmarks de IA. Así que hemos hablado con el español que ha creado uno de los más difíciles</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>Los escépticos de la IA redoblan su discurso</strong>. Analistas como Ed Zitron —más extremo— o Gary Marcus —defensor de la IA simbólica— <a class="text-outboundlink" href="https://www.xataka.com/empresas-y-economia/google-amazon-microsoft-llevan-anos-quemando-cantidades-absurdas-dinero-ia-al-fin-empiezan-a-ver-brotes-verdes" data-vars-post-title="Las Big Tech han sepultado miles y miles de millones en la IA. Están ganando dinero, pero no gracias a la IA" data-vars-post-url="https://www.xataka.com/empresas-y-economia/google-amazon-microsoft-llevan-anos-quemando-cantidades-absurdas-dinero-ia-al-fin-empiezan-a-ver-brotes-verdes">siempre han avisado</a> de las exageradas expectativas generadas por la IA generativa. Incluso quienes fueron instrumentales en la creación de ChatGPT, como el ingeniero Ilya Sutskever, <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/ilya-sutskever-cree-que-chatgpt-no-puede-ser-mucho-mejor-que-asi-que-esta-buscando-plan-b-para-ia" data-vars-post-title="La IA generativa apenas está mejorando: entrenar modelos con más y más GPUs y datos ya no sirve de mucho" data-vars-post-url="https://www.xataka.com/robotica-e-ia/ilya-sutskever-cree-que-chatgpt-no-puede-ser-mucho-mejor-que-asi-que-esta-buscando-plan-b-para-ia">advertían</a> de las limitaciones del escalado. Los modelos de razonamiento han suavizado las críticas y son una gran alternativa para ese aparente estancamiento de los modelos estándar, pero aun con ellos la sensación es que la IA no va a ir mucho más allá.</p>
<p><!-- BREAK 7 --></p>
<p><strong>Así nunca llegaremos a una AGI</strong>. Thomas Wolf, cofundador y Chief Science Officer de Hugging Face, <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/frente-a-ia-que-dice-a-todo-preocupacion-asi-jamas-lograremos-crear-einstein-newton" data-vars-post-title="Tenemos un problema filosófico con las IA generativas: nos están dando la razón en todo lo que les pedimos" data-vars-post-url="https://www.xataka.com/robotica-e-ia/frente-a-ia-que-dice-a-todo-preocupacion-asi-jamas-lograremos-crear-einstein-newton">reflexionaba sobre el problema</a> hace unos meses y llegaba a la conclusión de que las IAs se han convertido en &#8220;un país de hombres que dicen sí a todo en servidores&#8221;. Para él las cosas empezaban a ser inquietantes:</p>
<p><!-- BREAK 8 --></p>
<blockquote><p>&#8220;Para crear a un Einstein en un centro de datos no necesitamos un sistema que tenga todas las respuestas, sino más bien uno que sea capaz de preguntarse cosas que nadie había pensado o nadie se había atrevido a preguntar&#8221;.</p></blockquote>
<p>Como apuntaba este experto, la IA actual no genera (normalmente) nuevo conocimiento, y &#8220;simplemente llena los huecos de lo que los humanos ya sabían&#8221;. La IA actual es como un estudiante fantástico y muy aplicado, pero ese estudiante no desafía lo que se le ha enseñado. No lo cuestiona y no propone ideas que van contra los datos con los que ha sido entrenado. Yann LeCun, uno de los pioneros de la IA, ya llegó a una conclusión sobre la IA generativa actual: <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/uno-pioneros-ia-ha-echado-vistazo-a-ia-generativa-actual-ha-llegado-a-conclusion-tontisima" data-vars-post-title="Uno de los pioneros de la IA ha echado un vistazo a la IA generativa actual y ha llegado a una conclusión: es tontísima" data-vars-post-url="https://www.xataka.com/robotica-e-ia/uno-pioneros-ia-ha-echado-vistazo-a-ia-generativa-actual-ha-llegado-a-conclusion-tontisima">es tontísima</a>.</p>
<p><!-- BREAK 9 --></p>
<p><strong>Bajando expectativas</strong>. El panorama es preocupante para quienes están invirtiendo miles de millones de dólares en centros de datos o en entrenar nuevos modelos fundacionales, sobre todo porque ese impacto puede no ser tan gigantesco como habían pronosticado y prometido. Ed Zitron <a rel="noopener, noreferrer" href="https://www.newyorker.com/culture/open-questions/what-if-ai-doesnt-get-much-better-than-this">indicaba</a> en The New Yorker que &#8220;este es un mercado de 50.000 millones de dólares, no uno de un billón de dólares&#8221;. Marcus se mostraba de acuerdo. &#8220;De 50.000 millones, sí. Quizás de 100.000&#8221;.</p>
<p><!-- BREAK 10 --></p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p><strong>Qué pasa si la IA se ha estancado</strong>. Si efectivamente es así, lo que podemos esperar es que la IA se convierta en una herramienta útil para ahorrar tiempo y mejorar el resultado de ciertas tareas —ya lo está haciendo—, pero no para provocar <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/sam-altman-afirma-que-superinteligencia-llegara-unos-pocos-miles-dias-su-optimismo-sospechoso" data-vars-post-title='Sam Altman afirma que la AGI llegará "en unos pocos miles de días". El hype es lógico: necesita dinero a espuertas' data-vars-post-url="https://www.xataka.com/robotica-e-ia/sam-altman-afirma-que-superinteligencia-llegara-unos-pocos-miles-dias-su-optimismo-sospechoso">ese impacto sísmico</a> en la sociedad y <a class="text-outboundlink" href="https://www.genbeta.com/inteligencia-artificial/cinco-anos-ia-se-cargara-mitad-empleos-oficina-este-ceo-democracia-tambien-esta-peligro" data-vars-post-title='En cinco años, la IA se cargará "hasta la mitad" de los empleos de oficina, según este CEO. La democracia también está en peligro ' data-vars-post-url="https://www.genbeta.com/inteligencia-artificial/cinco-anos-ia-se-cargara-mitad-empleos-oficina-este-ceo-democracia-tambien-esta-peligro">el empleo</a> que personalidades como Altman, Musk, Amodei o Zuckerberg defienden con sus inversiones. Si eso pasa tendremos sin duda una potente herramienta para hacer las cosas mejor y más rápido. Que fue justo lo que nos permitieron otras disrupciones fantásticas como el PC o internet.</p>
<p><!-- BREAK 11 --></p>
<p>Pero muchos probablemente esperábamos más. Mucho más. Y ahí está el problema. En las expectativas.</p>
<p>Imagen | <a rel="noopener, noreferrer" href="https://unsplash.com/es/fotos/una-pantalla-de-computadora-con-un-monton-de-botones-drwpcjkvxuU">Levart Photographer</a></p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/hay-demasiados-modelos-ia-eso-plantea-verdadera-sentencia-muerte-para-anthropic-claude" data-vars-post-title="Hay demasiados modelos de IA. Eso plantea una verdadera sentencia de muerte para Anthropic y Claude" data-vars-post-url="https://www.xataka.com/robotica-e-ia/hay-demasiados-modelos-ia-eso-plantea-verdadera-sentencia-muerte-para-anthropic-claude">Hay demasiados modelos de IA. Eso plantea una verdadera sentencia de muerte para Anthropic y Claude</a></p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/pregunta-no-ia-se-ha-estancado-pregunta-que-pasa-ha-hecho?utm_source=feedburner&;utm_medium=feed&;utm_campaign=14_Aug_2025"><br />
 <em> Los escépticos de la IA avisaron de que nos estábamos emocionando mucho y no les creímos: la IA es tontísima </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=14_Aug_2025"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/javier-pastor?utm_source=feedburner&;utm_medium=feed&;utm_campaign=14_Aug_2025"><br />
 Javier Pastor<br />
 </a><br />
 . </p>
<p>​GPT-5 es algo mejor que GPT-4. El problema de esa frase está en la palabra &#8220;algo&#8221;. El nuevo modelo &#8220;unificado&#8221; de OpenAI no parece representar el salto cualitativo que muchos esperaban, y eso ha vuelto a hacer sonar las alarmas. Uno podría preguntar ¿y si la IA ya no se vuelve mucho mejor de lo que es ahora?, pero quizás eso esté pasando ya y la pregunta sea otra: ¿qué hacemos entonces?</p>
<p>El escalado funciona, pero menos. En 2020 un equipo de investigadores de OpenAI publicaron un estudio titulado &#8220;Leyes del escalado para Modelos Neuronales de Lenguaje&#8221;. En él planteaban una especie de Ley de Moore de la IA: cuantos más datos y cómputo dedicases a entrenar modelos, mejor serían. Aquella observación se demostró claramente cuando lanzaron GPT-3, que era 10 veces más grande que GPT-2 pero era mucho, muchísimo mejor que aquel modelo.</p>
<p> En Xataka</p>
<p> Las empresas de IA saben que competir es de perdedores. Todas buscan convertirse en el monopolio de la IA</p>
<p>Desaceleración. Gary Marcus, profesor de psicología y ciencias neuronales en la Universidad de Nueva York, explicó en 2022 que aquel estudio no tenía mucho sentido: &#8220;las llamadas leyes del escalado no son leyes universales como la de la gravedad, sino simplemente meras observaciones que podrían no mantenerse para siempre&#8221;. Hasta Satya Nadella se mostró de acuerdo con dicha afirmación hace unos meses en el evento Ignite 2024. Y como estamos viendo, sus dudas se han hecho realidad. El escalado funciona y los modelos son algo mejores que sus predecesores, pero la desaceleración parece estar ahí.</p>
<p>Pero GPT-5 no está tan mal. Lo cierto es que GPT-5 ha mejorado en métricas relevantes. Los responsables de Epoch AI evaluaron su comportamiento en FrontierMath, por ejemplo. Los resultados eran un poco mejores que su predecesor o4-mini, pero no había grandes saltos de rendimento. Aun así destacaban cómo GPT-5 sí ha sido el primer modelo en lograr resolver un problema concreto como si &#8220;hubiera comprendido totalmente el problema&#8221;.</p>
<p> En el ámbito de las matemáticas, GPT-5 se comporta algo mejor que sus predecesores, pero la diferencia no es radical. Los problemas más difíciles (Tier 4) siguen siendo casi imposibles para los modelos de IA. Fuente: Epoch AI.</p>
<p>Y piensa mejor. Otro análisis independiente del analista Zvi Mowshowitz señalaba que aunque el modelo base de GPT-5 era correcto sin más, sus variantes avanzadas (GPT-5 Pro y GPT-5 Thinking) eran una mejora sustancial respecto a o3-Pro y o3 respectivamente, sobre todo al mitigar las alucinaciones. Según sus datos, &#8220;GPT-5 Auto&#8221; (la versión base) parece un producto pobre a no ser que uses el plan gratuito de ChatGPT&#8221;.</p>
<p>Igual lo que necesitamos es una IA simbólica. La IA simbólica (&#8220;clásica&#8221;) representa el conocimiento usando símbolos y reglas, y se basa en la lógica y el razonamiento formal para resolver problemas y tomar decisiones. Este tipo de IA dominó el panorama de la IA hasta los 90, pero la falta de avances notables hizo que aquella disciplina se estancase y vivimos un invierno de la IA. &#8220;Salimos&#8221; de él con la IA conexionista, las redes neuronales que representan el conocimiento mediante conexiones y pesos de los nodos de una red de neuronas artificiales. Esta disciplina fue la que dio lugar al auge de la IA generativa y el éxito arrollador de ChatGPT y sus rivales. Su sorprendente buen comportamiento desató la actual fiebre de la IA, pero los avances de rendimiento están desacelerando.</p>
<p> En Xataka</p>
<p> No sabemos qué miden los benchmarks de IA. Así que hemos hablado con el español que ha creado uno de los más difíciles</p>
<p>Los escépticos de la IA redoblan su discurso. Analistas como Ed Zitron —más extremo— o Gary Marcus —defensor de la IA simbólica— siempre han avisado de las exageradas expectativas generadas por la IA generativa. Incluso quienes fueron instrumentales en la creación de ChatGPT, como el ingeniero Ilya Sutskever, advertían de las limitaciones del escalado. Los modelos de razonamiento han suavizado las críticas y son una gran alternativa para ese aparente estancamiento de los modelos estándar, pero aun con ellos la sensación es que la IA no va a ir mucho más allá.</p>
<p>Así nunca llegaremos a una AGI. Thomas Wolf, cofundador y Chief Science Officer de Hugging Face, reflexionaba sobre el problema hace unos meses y llegaba a la conclusión de que las IAs se han convertido en &#8220;un país de hombres que dicen sí a todo en servidores&#8221;. Para él las cosas empezaban a ser inquietantes:</p>
<p>&#8220;Para crear a un Einstein en un centro de datos no necesitamos un sistema que tenga todas las respuestas, sino más bien uno que sea capaz de preguntarse cosas que nadie había pensado o nadie se había atrevido a preguntar&#8221;.</p>
<p>Como apuntaba este experto, la IA actual no genera (normalmente) nuevo conocimiento, y &#8220;simplemente llena los huecos de lo que los humanos ya sabían&#8221;. La IA actual es como un estudiante fantástico y muy aplicado, pero ese estudiante no desafía lo que se le ha enseñado. No lo cuestiona y no propone ideas que van contra los datos con los que ha sido entrenado. Yann LeCun, uno de los pioneros de la IA, ya llegó a una conclusión sobre la IA generativa actual: es tontísima.</p>
<p>Bajando expectativas. El panorama es preocupante para quienes están invirtiendo miles de millones de dólares en centros de datos o en entrenar nuevos modelos fundacionales, sobre todo porque ese impacto puede no ser tan gigantesco como habían pronosticado y prometido. Ed Zitron indicaba en The New Yorker que &#8220;este es un mercado de 50.000 millones de dólares, no uno de un billón de dólares&#8221;. Marcus se mostraba de acuerdo. &#8220;De 50.000 millones, sí. Quizás de 100.000&#8221;.</p>
<p>Qué pasa si la IA se ha estancado. Si efectivamente es así, lo que podemos esperar es que la IA se convierta en una herramienta útil para ahorrar tiempo y mejorar el resultado de ciertas tareas —ya lo está haciendo—, pero no para provocar ese impacto sísmico en la sociedad y el empleo que personalidades como Altman, Musk, Amodei o Zuckerberg defienden con sus inversiones. Si eso pasa tendremos sin duda una potente herramienta para hacer las cosas mejor y más rápido. Que fue justo lo que nos permitieron otras disrupciones fantásticas como el PC o internet.</p>
<p>Pero muchos probablemente esperábamos más. Mucho más. Y ahí está el problema. En las expectativas.</p>
<p>Imagen | Levart Photographer</p>
<p>En Xataka | Hay demasiados modelos de IA. Eso plantea una verdadera sentencia de muerte para Anthropic y Claude</p>
<p> &#8211; La noticia</p>
<p> Los escépticos de la IA avisaron de que nos estábamos emocionando mucho y no les creímos: la IA es tontísima </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Javier Pastor</p>
<p> . </p>
<p>​ </p>
<p>​ </p>