Ciencia y Tecnología

La gran pregunta que afronta GPT 5.2 no es si es mejor o peor que sus antecesores: es si sale más barato

Published

on

<p>&NewLine; <img src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;d8354b&sol;openai1-copia-2&sol;1024&lowbar;2000&period;jpeg" alt&equals;"La gran pregunta que afronta GPT 5&period;2 no es si es mejor o peor que sus antecesores&colon; es si sale más barato ">&NewLine; <&sol;p>&NewLine;<p>En 2019 a un <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;fundador-uno-benchmarks-ia-prestigiosos-mundo-tiene-nueva-startup-objetivo-mente-iag" data-vars-post-title&equals;"El fundador de uno de los benchmarks de IA más prestigiosos del mundo tiene una nueva startup&period; Y un objetivo en mente&colon; la IAG " data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;fundador-uno-benchmarks-ia-prestigiosos-mundo-tiene-nueva-startup-objetivo-mente-iag">joven investigador<&sol;a> llamado François Chollet <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;arc-agi-test-facil-para-humanos-durisimo-para-ias-pregunta-sirve-realmente-para-medir-hemos-llegado-a-agi" data-vars-post-title&equals;"Si la pregunta es si la IA es ya tan buena como la inteligencia humana&comma; la respuesta es&colon; resuelve este puzzle" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;arc-agi-test-facil-para-humanos-durisimo-para-ias-pregunta-sirve-realmente-para-medir-hemos-llegado-a-agi">se le ocurrió crear un benchmark para IA<&sol;a>&period; La idea era como poco rarita&comma; porque en 2019 no había prácticamente nada con lo que probar ese benchmark&period; <strong>En realidad Chollet se adelantó al futuro<&sol;strong>&comma; porque aun faltaban tres años para que apareciera ChatGPT y se iniciara la fiebre por la IA&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 1 --><&sol;p>&NewLine;<p>Luego llegarían más y más benchmarks sintéticos para medir el rendimiento de las IAs&comma; pero ARC-AGI era un benchmark distinto&period; Mientras que en muchos otros benchmarks la capacidad de memorización del modelo es crucial&comma; aquí se ponía a prueba la capacidad de pensamiento abstracto y generalización de la IA&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 2 --><&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;ia-se-estan-volviendo-muy-listas-crear-pruebas-para-ponerlas-aprietos-esta-siendo-cada-vez-dificil" class&equals;"pivot-outboundlink" data-vars-post-title&equals;"Las IA se están volviendo muy listas&period; Y crear pruebas para ponerlas en aprietos está siendo cada vez más difícil "><br &sol;>&NewLine; <img alt&equals;"Las IA se están volviendo muy listas&period; Y crear pruebas para ponerlas en aprietos está siendo cada vez más difícil " width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;3519a3&sol;robot-examen&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;ia-se-estan-volviendo-muy-listas-crear-pruebas-para-ponerlas-aprietos-esta-siendo-cada-vez-dificil" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;"Las IA se están volviendo muy listas&period; Y crear pruebas para ponerlas en aprietos está siendo cada vez más difícil ">En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;ia-se-estan-volviendo-muy-listas-crear-pruebas-para-ponerlas-aprietos-esta-siendo-cada-vez-dificil" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;"Las IA se están volviendo muy listas&period; Y crear pruebas para ponerlas en aprietos está siendo cada vez más difícil ">Las IA se están volviendo muy listas&period; Y crear pruebas para ponerlas en aprietos está siendo cada vez más difícil <&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>Los problemas propuestos en ARC-AGI y su sucesor&comma; ARC-AGI 2&comma; constan en gran medida de puzzles visuales que son relativamente fáciles de resolver por los seres humanos&comma; pero que hasta ahora <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;inteligencia-artificial&sol;paradoja-moravec-que-inteligencia-artificial-hace-facil-dificil-viceversa" data-vars-post-title&equals;"La paradoja de Moravec&colon; por qué la inteligencia artificial hace fácil lo difícil &lpar;y viceversa&rpar;" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;inteligencia-artificial&sol;paradoja-moravec-que-inteligencia-artificial-hace-facil-dificil-viceversa">eran casi imposibles para las máquinas<&sol;a>&period; En los últimos dos años hemos ido viendo no obstante cómo los modelos de IA iban mejorando en comprensión abstracta y generalización&comma; y poco a poco resolvieron más y más puzzles de ARC-AGI&period; ¿El problema&quest;<&sol;p>&NewLine;<p><&excl;-- BREAK 3 --><&sol;p>&NewLine;<p>Gastaban un dineral para hacerlo&period; <&sol;p>&NewLine;<p>Y ahí es donde entra GPT-5&period;2&period;<&sol;p>&NewLine;<h2>La IA puede resolver casi todo&period; La pregunta es cuánto cuesta hacerlo<&sol;h2>&NewLine;<p>El año pasado o3-preview logró resolver el 87&percnt; de ARC-AGI 1&period; El hito fue tan llamativo que hasta los propios responsables del benchmark <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;arcprize&period;org&sol;blog&sol;oai-o3-pub-breakthrough">publicaron un anuncio al respecto<&sol;a>&period; Para lograrlo&comma; eso sí&comma; o3-preview ejecutó 100 tareas con un coste total de 456&period;000 dólares&colon; <strong>cada una costó 4&period;560 dólares<&sol;strong>&period; <&sol;p>&NewLine;<div class&equals;"article-asset-image article-asset-large article-asset-center">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"caption-img ">&NewLine;<p> <img alt&equals;"Arc Prize Leaderboard" class&equals;"" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;1b0f6a&sol;arc-prize-leaderboard&sol;450&lowbar;1000&period;png"><&sol;p>&NewLine;<p> <span>Fuente&colon; ARC-AGI Prize<&sol;span>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>Ayer se publicó GPT-5&period;2&comma; la última versión del modelo fundacional de IA de OpenAI&period; Su rendimiento en otros benchmarks era excepcional&comma; pero lo que realmente llama la atención es cómo se comportó en ARC-AGI 1&period; No por lograr resolver un 90&comma;5&percnt; de los problemas con GPT-5&period;2 Pro &lpar;X-High&rpar;&comma; no&comma; sino por cuánto costó cada tarea&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 4 --><&sol;p>&NewLine;<p>La cifra&colon; <strong>11&comma;65 dólares por tarea<&sol;strong>&period; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;openai&period;com&sol;es-ES&sol;index&sol;introducing-gpt-5-2&sol;">390 veces menos<&sol;a> que hace un año&period;<&sol;p>&NewLine;<p>De hecho una versión aún más barata&comma; GPT-5&period;2 &lpar;X-High&rpar; logró un 86&comma;2&percnt; con un coste de tan solo 0&comma;96 dólares por tarea&period; Alucinante&period;<&sol;p>&NewLine;<div class&equals;"article-asset-image article-asset-large article-asset-center">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"caption-img ">&NewLine;<p> <img alt&equals;"Arc Agi 2prize Leaderboard" class&equals;"" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;f2410c&sol;arc-agi-2prize-leaderboard&sol;450&lowbar;1000&period;png"><&sol;p>&NewLine;<p> <span>ARC-AGI 2 sigue siendo un desafío para la mayoría de modelos&comma; pero GPT-5&period;2 ha dado otro salto de calidad excepcional&period; Fuente&colon; ARC-AGI Prize&period;<&sol;span>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>Chollet y su equipo sabían que la IA acabaría superando su test ARC-AGI tarde o temprano&comma; así que <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;arcprize&period;org&sol;blog&sol;announcing-arc-agi-2-and-arc-prize-2025">en marzo de 2025<&sol;a> publicaron ARC-AGI 2&comma; la segunda versión de su benchmark&comma; para ponérselo aún más difícil a las máquinas&period; Ese test es aún un verdadero desafío para la mayoría de modelos&comma; que hasta ahora apenas habían resuelto un 38&percnt; de los problemas en el mejor de los casos &lpar;Claude Opus 4&period;5&rpar;&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 5 --><&sol;p>&NewLine;<p>GPT-5&period;2 <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;arcprize&sol;status&sol;1999182732845547795">ha logrado resolver<&sol;a> casi el 55&percnt;&period; Es un salto colosal&period;<&sol;p>&NewLine;<p>Y de nuevo&comma; con un coste realmente sorprendente de 15&comma;72 dólares por tarea&period; La tendencia es clara&colon; la IA no solo está volviéndose mejor&comma; <strong>sino que es cada vez más barata<&sol;strong>&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 6 --><&sol;p>&NewLine;<p>Eso son buenas noticias para todos&comma; porque equilibran esa ya clara percepción de que el escalado no funciona tanto como en el pasado&period; Los saltos en rendimiento no son tan llamativos —aunque estas pruebas con ARC-AGI desmontan ese argumento—&comma; pero sí lo son los saltos en cuanto a coste&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 7 --><&sol;p>&NewLine;<div class&equals;"article-asset-video article-asset-normal">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"base-asset-video">&NewLine;<div class&equals;"js-dailymotion"><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>La carrera de la IA parece haber alcanzado un punto de inflexión&period; La verdadera pregunta no es si la IA logrará resolver un problema&comma; sino cuánto costará resolverlo&period; Y la evolución de GPT-5&period;2 parece demostrar claramente algo crucial&colon; que la IA cada vez resuelve más cosas a menor precio&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 8 --><&sol;p>&NewLine;<p>Eso es además algo crítico para una OpenAI que <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;openai-va-a-tener-que-pagar-fortuna-obligaciones-crediticias-2026-no-esta-nada-claro-que-logre-pagarlas" data-vars-post-title&equals;"OpenAI tiene que pagar deudas de 400&period;000 millones de dólares en 2026&period; Nadie tiene ni la más remota idea de cómo va a pagarlos" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;openai-va-a-tener-que-pagar-fortuna-obligaciones-crediticias-2026-no-esta-nada-claro-que-logre-pagarlas">está en una situación económica delicada<&sol;a>&period; Ahora que estamos más en una especie de meseta en cuanto a ganancias en rendimiento&comma; <strong>lograr ser más baratos y eficientes es clave<&sol;strong> para el futuro de la empresa&period; Y parece que GPT-5&period;2&comma; además de una respuesta a Gemini 3 Pro&comma; es un paso claro en esa dirección&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 9 --><&sol;p>&NewLine;<p>En Xataka &vert; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;empresas-y-economia&sol;hay-carrera-que-anthropic-le-va-a-ganar-partida-a-openai-ser-rentable" data-vars-post-title&equals;"OpenAI va por delante de Anthropic en todos los aspectos de la IA excepto en el más importante&colon; sobrevivir" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;empresas-y-economia&sol;hay-carrera-que-anthropic-le-va-a-ganar-partida-a-openai-ser-rentable">Hay una carrera en la que Anthropic le está ganando la partida a OpenAI&colon; en la de ser rentable<&sol;a><&sol;p>&NewLine;<p> &&num;8211&semi; <br &sol;> La noticia<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;gran-pregunta-que-afronta-gpt-5-2-no-mejor-peor-que-sus-antecesores-sale-barato&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;14&lowbar;Dec&lowbar;2025"><br &sol;>&NewLine; <em> La gran pregunta que afronta GPT 5&period;2 no es si es mejor o peor que sus antecesores&colon; es si sale más barato <&sol;em><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; fue publicada originalmente en<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;14&lowbar;Dec&lowbar;2025"><br &sol;>&NewLine; <strong> Xataka <&sol;strong><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; por <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;autor&sol;javier-pastor&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;14&lowbar;Dec&lowbar;2025"><br &sol;>&NewLine; Javier Pastor<br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; &period; <&sol;p>&NewLine;<p>&ZeroWidthSpace;En 2019 a un joven investigador llamado François Chollet se le ocurrió crear un benchmark para IA&period; La idea era como poco rarita&comma; porque en 2019 no había prácticamente nada con lo que probar ese benchmark&period; En realidad Chollet se adelantó al futuro&comma; porque aun faltaban tres años para que apareciera ChatGPT y se iniciara la fiebre por la IA&period; <&sol;p>&NewLine;<p>Luego llegarían más y más benchmarks sintéticos para medir el rendimiento de las IAs&comma; pero ARC-AGI era un benchmark distinto&period; Mientras que en muchos otros benchmarks la capacidad de memorización del modelo es crucial&comma; aquí se ponía a prueba la capacidad de pensamiento abstracto y generalización de la IA&period;<&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> Las IA se están volviendo muy listas&period; Y crear pruebas para ponerlas en aprietos está siendo cada vez más difícil <&sol;p>&NewLine;<p>Los problemas propuestos en ARC-AGI y su sucesor&comma; ARC-AGI 2&comma; constan en gran medida de puzzles visuales que son relativamente fáciles de resolver por los seres humanos&comma; pero que hasta ahora eran casi imposibles para las máquinas&period; En los últimos dos años hemos ido viendo no obstante cómo los modelos de IA iban mejorando en comprensión abstracta y generalización&comma; y poco a poco resolvieron más y más puzzles de ARC-AGI&period; ¿El problema&quest;<&sol;p>&NewLine;<p>Gastaban un dineral para hacerlo&period; <&sol;p>&NewLine;<p>Y ahí es donde entra GPT-5&period;2&period;<&sol;p>&NewLine;<p>La IA puede resolver casi todo&period; La pregunta es cuánto cuesta hacerloEl año pasado o3-preview logró resolver el 87&percnt; de ARC-AGI 1&period; El hito fue tan llamativo que hasta los propios responsables del benchmark publicaron un anuncio al respecto&period; Para lograrlo&comma; eso sí&comma; o3-preview ejecutó 100 tareas con un coste total de 456&period;000 dólares&colon; cada una costó 4&period;560 dólares&period; <&sol;p>&NewLine;<p> Fuente&colon; ARC-AGI Prize<&sol;p>&NewLine;<p>Ayer se publicó GPT-5&period;2&comma; la última versión del modelo fundacional de IA de OpenAI&period; Su rendimiento en otros benchmarks era excepcional&comma; pero lo que realmente llama la atención es cómo se comportó en ARC-AGI 1&period; No por lograr resolver un 90&comma;5&percnt; de los problemas con GPT-5&period;2 Pro &lpar;X-High&rpar;&comma; no&comma; sino por cuánto costó cada tarea&period; <&sol;p>&NewLine;<p>La cifra&colon; 11&comma;65 dólares por tarea&period; 390 veces menos que hace un año&period;<&sol;p>&NewLine;<p>De hecho una versión aún más barata&comma; GPT-5&period;2 &lpar;X-High&rpar; logró un 86&comma;2&percnt; con un coste de tan solo 0&comma;96 dólares por tarea&period; Alucinante&period;<&sol;p>&NewLine;<p> ARC-AGI 2 sigue siendo un desafío para la mayoría de modelos&comma; pero GPT-5&period;2 ha dado otro salto de calidad excepcional&period; Fuente&colon; ARC-AGI Prize&period;<&sol;p>&NewLine;<p>Chollet y su equipo sabían que la IA acabaría superando su test ARC-AGI tarde o temprano&comma; así que en marzo de 2025 publicaron ARC-AGI 2&comma; la segunda versión de su benchmark&comma; para ponérselo aún más difícil a las máquinas&period; Ese test es aún un verdadero desafío para la mayoría de modelos&comma; que hasta ahora apenas habían resuelto un 38&percnt; de los problemas en el mejor de los casos &lpar;Claude Opus 4&period;5&rpar;&period; <&sol;p>&NewLine;<p>GPT-5&period;2 ha logrado resolver casi el 55&percnt;&period; Es un salto colosal&period;<&sol;p>&NewLine;<p>Y de nuevo&comma; con un coste realmente sorprendente de 15&comma;72 dólares por tarea&period; La tendencia es clara&colon; la IA no solo está volviéndose mejor&comma; sino que es cada vez más barata&period; <&sol;p>&NewLine;<p>Eso son buenas noticias para todos&comma; porque equilibran esa ya clara percepción de que el escalado no funciona tanto como en el pasado&period; Los saltos en rendimiento no son tan llamativos —aunque estas pruebas con ARC-AGI desmontan ese argumento—&comma; pero sí lo son los saltos en cuanto a coste&period; <&sol;p>&NewLine;<p>La carrera de la IA parece haber alcanzado un punto de inflexión&period; La verdadera pregunta no es si la IA logrará resolver un problema&comma; sino cuánto costará resolverlo&period; Y la evolución de GPT-5&period;2 parece demostrar claramente algo crucial&colon; que la IA cada vez resuelve más cosas a menor precio&period; <&sol;p>&NewLine;<p>Eso es además algo crítico para una OpenAI que está en una situación económica delicada&period; Ahora que estamos más en una especie de meseta en cuanto a ganancias en rendimiento&comma; lograr ser más baratos y eficientes es clave para el futuro de la empresa&period; Y parece que GPT-5&period;2&comma; además de una respuesta a Gemini 3 Pro&comma; es un paso claro en esa dirección&period;<&sol;p>&NewLine;<p>En Xataka &vert; Hay una carrera en la que Anthropic le está ganando la partida a OpenAI&colon; en la de ser rentable<&sol;p>&NewLine;<p> &&num;8211&semi; La noticia<&sol;p>&NewLine;<p> La gran pregunta que afronta GPT 5&period;2 no es si es mejor o peor que sus antecesores&colon; es si sale más barato <&sol;p>&NewLine;<p> fue publicada originalmente en<&sol;p>&NewLine;<p> Xataka <&sol;p>&NewLine;<p> por<br &sol;>&NewLine; Javier Pastor<&sol;p>&NewLine;<p> &period;   <&sol;p>&NewLine;<p>&ZeroWidthSpace;   <&sol;p>&NewLine;<p>&ZeroWidthSpace; <&sol;p>&NewLine;

Leave a Reply

Your email address will not be published. Required fields are marked *

Noticias Importantes

Copyright © 2017 ERM DIGITAL. powered by ERM.