Connect with us

Tecnología

GPT-4.5 no es mejor que sus rivales en casi nada. Es la prueba de que los modelos de IA tradicionales ya casi no avanzan

Published

on

GPT-4.5 no es mejor que sus rivales en casi nada. Es la prueba de que los modelos de IA tradicionales ya casi no avanzan

Sam Altman ya había avisado de que tenían previsto lanzar GPT-4.5 muy pronto. Llevábamos meses esperando al sucesor de GPT-4, pero con el tiempo las expectativas han ido bajando: se hablaba de la desaceleración de la IA y de cómo el escalado —más datos y más GPUs para entrenar modelos— ya no funcionaba tanto. Precisamente GPT-4.5 iba a ser la prueba de que quizás eso no era cierto. ¿Sabéis qué? Que probablemente lo era, porque GPT-4.5 es un modelo con muchos problemas de partida.

GPT-4.5 ya está con nosotros. Ayer OpenAI presentaba al fin GPT-4.5, el teórico sucesor de GPT-4. Sam Altman explicaba que este era «el primer modelo que me hace sentir que estoy hablando con una persona atenta».

Gigantesco y caro. Pero Altman también reconocía otra cosa. «Malas noticias: es un modelo gigante y caro». El máximo responsable de OpenAI afirmaba haberse quedado sin GPUs suficientes para hacer un lanzamiento masivo, y la disponibilidad de GPT-4.5 es muy limitada: solo los usuarios de ChatGPT Pro podrán usarlo de momento.

Caro no, carísimo. Usar el modelo GPT-4.5 a través de la API de OpenAI es extraordinariamente caro: cuesta 75 dólares por millón de tokens de entrada, y 150 dólares por millón de tokens de salida. GPT-4o cuesta 2,5 y 10 dólares respectivamente (30 y 15 veces menos), y o1, hasta ahora el más caro, cuesta 15 y 60 dólares respectivamente.

Y además no es un modelo «frontera». El informe técnico de OpenAI indica que este no es un modelo «frontier« como lo era GPT-4, por ejemplo. Eso es importante, porque a pesar de ser su LLM más grande, los modelos frontera son más capaces, de gran escala y plantean riesgos al poder generar desinformación o ser forzados a salirse de las normas. En GPT-4.5 parecen haberse centrado mucho en evitar errores (es una de sus ventajas, parece meter menos la pata según algunos bancos de pruebas).

No parece mejor en casi nada. Las pruebas y benchmarks a las que ha sido sometido parecen dejar claro que el salto en prestaciones es especialmente decepcionante, sobre todo si lo comparamos con los nuevos modelos de sus rivales. Es peor en precisión de los hechos que Deep Research de Perplexity, es peor que Claude 3.7 Sonnet en programación según TechCrunch y varios expertos, y también es peor en razonamiento (aunque ciertamente no está orientado a ello) que DeepSeek R1, o3-mini o Claude 3.7 Sonnet (que es un modelo «híbrido»).

Sensación agridulce. Expertos como Simon Willison o Andrej Karpathy han compartido sus primeras impresiones y en ambos casos la sensación es que GPT-4.5 es lento, está actualizado solo hasta octubre de 2023 y no representa un avance realmente destacable. Willinson llegó a analizar el debate que decenas de usuarios manteían sobre GPT-4.5, y en un resumen generado por IA las conclusiones también eran claras: la propia numeración era inapropiada, el modelo es demasiado caro, la relación precio/prestaciones era muy discutible y el rendimiento no era el que se esperaba tras tanto tiempo. La conclusión de Karpathy es que «es un poco mejor y eso es genial, pero no exactamente en apartados triviales de destacar».

¿Más humano? La apreciación de Altman sobre su conversación cómo se había visto sorprendido por la capacidad de conversación de GPT-4.5 quizás apunte a la dirección en la que este modelo destaca. Karpathy también apuntaba a ese aspecto al decir que la mejora podría mostrarse en «creatividad, realización de analogías, comprensión general y humor», lo que quizás haga que efectivamente las conversaciones con GPT-4.5 den la sensación de ser aún más cercanas a las que tendríamos con un ser humano.

El escalado no funciona, la desaceleración está aquí. GPT-4.5 es un ejemplo claro de cómo parece que hemos llegado a los límites del escalado. Tener un LLM gigantesco ya no parece aportar ventajas sobre sus antecesores, y dedicar más datos y más GPUs para entrenar estos modelos no parece tener mucho sentido. El propio Altman dejó claro que GPT-4.5 sería el último modelo de no razonamiento de la empresa. Esa es otra señal que demuestra que la desaceleración de la IA generativa, al menos en lo que se refiere a modelos tradicionales, es una realidad.

¿Por qué lo han lanzado entonces? En el blog de OpenAI se indica cómo «estamos compartiendo GPT-4.5 como un avance de investigación para comprender mejor sus puntos fuertes y sus limitaciones. Todavía estamos explorando de lo que es capaz y estamos ansiosos por ver cómo la gente lo utiliza de maneras que no habríamos esperado». Eso parece mostrar las dudas que sus propios creadores tienen con el modelo, y la pregunta por qué lo han lanzado.

Necesitan seguir generando «hype». Sobre todo teniendo en cuenta que los rivales están muy fuertes últimamente. Claude 3.7, Grok 3 y desde luego DeepSeek R1 han logrado darle la vuelta a la tortilla y plantear todo un reto para OpenAI, que hasta no hace mucho parecía estar un pasito por delante de sus rivales. Ahora eso no está nada claro, y en muchos apartados sus competidores ya superan las prestaciones de sus modelos. OpenAI necesita sacar pecho y decir «aquí estoy yo», pero quizás con GPT-4.5 ese movimiento salga mal, porque al menos a priori las prestaciones son decepcionantes.

Y los inversores aprietan. Algunos apuntan a otra teoría probable para este lanzamiento. OpenAI podría haberse visto obligada a lanzar GPT-4.5 ya contentar a los inversores, que han invertido miles de millones de dólares en la compañía y que necesitan estar tranquilos con su inversión. De nuevo aquí OpenAI tiene un problema, porque no parece que GPT-4.5 pueda dejarlos tranquilos. Será difícil que convenzan a nuevos inversores con este lanzamiento.

En Xataka | OpenAI tiene una oportunidad de oro para barrer a todos sus rivales: lanzar un ChatGPT ilimitado y lleno de publicidad


La noticia

GPT-4.5 no es mejor que sus rivales en casi nada. Es la prueba de que los modelos de IA tradicionales ya casi no avanzan

fue publicada originalmente en

Xataka

por
Javier Pastor

.

  Sam Altman ya había avisado de que tenían previsto lanzar GPT-4.5 muy pronto. Llevábamos meses esperando al sucesor de GPT-4, pero con el tiempo las expectativas han ido bajando: se hablaba de la desaceleración de la IA y de cómo el escalado —más datos y más GPUs para entrenar modelos— ya no funcionaba tanto. Precisamente GPT-4.5 iba a ser la prueba de que quizás eso no era cierto. ¿Sabéis qué? Que probablemente lo era, porque GPT-4.5 es un modelo con muchos problemas de partida.

GPT-4.5 ya está con nosotros. Ayer OpenAI presentaba al fin GPT-4.5, el teórico sucesor de GPT-4. Sam Altman explicaba que este era «el primer modelo que me hace sentir que estoy hablando con una persona atenta».

Gigantesco y caro. Pero Altman también reconocía otra cosa. «Malas noticias: es un modelo gigante y caro». El máximo responsable de OpenAI afirmaba haberse quedado sin GPUs suficientes para hacer un lanzamiento masivo, y la disponibilidad de GPT-4.5 es muy limitada: solo los usuarios de ChatGPT Pro podrán usarlo de momento.

Caro no, carísimo. Usar el modelo GPT-4.5 a través de la API de OpenAI es extraordinariamente caro: cuesta 75 dólares por millón de tokens de entrada, y 150 dólares por millón de tokens de salida. GPT-4o cuesta 2,5 y 10 dólares respectivamente (30 y 15 veces menos), y o1, hasta ahora el más caro, cuesta 15 y 60 dólares respectivamente.

Y además no es un modelo «frontera». El informe técnico de OpenAI indica que este no es un modelo «frontier» como lo era GPT-4, por ejemplo. Eso es importante, porque a pesar de ser su LLM más grande, los modelos frontera son más capaces, de gran escala y plantean riesgos al poder generar desinformación o ser forzados a salirse de las normas. En GPT-4.5 parecen haberse centrado mucho en evitar errores (es una de sus ventajas, parece meter menos la pata según algunos bancos de pruebas).

No parece mejor en casi nada. Las pruebas y benchmarks a las que ha sido sometido parecen dejar claro que el salto en prestaciones es especialmente decepcionante, sobre todo si lo comparamos con los nuevos modelos de sus rivales. Es peor en precisión de los hechos que Deep Research de Perplexity, es peor que Claude 3.7 Sonnet en programación según TechCrunch y varios expertos, y también es peor en razonamiento (aunque ciertamente no está orientado a ello) que DeepSeek R1, o3-mini o Claude 3.7 Sonnet (que es un modelo «híbrido»).

Sensación agridulce. Expertos como Simon Willison o Andrej Karpathy han compartido sus primeras impresiones y en ambos casos la sensación es que GPT-4.5 es lento, está actualizado solo hasta octubre de 2023 y no representa un avance realmente destacable. Willinson llegó a analizar el debate que decenas de usuarios manteían sobre GPT-4.5, y en un resumen generado por IA las conclusiones también eran claras: la propia numeración era inapropiada, el modelo es demasiado caro, la relación precio/prestaciones era muy discutible y el rendimiento no era el que se esperaba tras tanto tiempo. La conclusión de Karpathy es que «es un poco mejor y eso es genial, pero no exactamente en apartados triviales de destacar».

En Xataka

ChatGPT, o1, o3-mini, GPT-4o: OpenAI tiene un problema muy evidente con sus modelos IA y es su nombre

¿Más humano? La apreciación de Altman sobre su conversación cómo se había visto sorprendido por la capacidad de conversación de GPT-4.5 quizás apunte a la dirección en la que este modelo destaca. Karpathy también apuntaba a ese aspecto al decir que la mejora podría mostrarse en «creatividad, realización de analogías, comprensión general y humor», lo que quizás haga que efectivamente las conversaciones con GPT-4.5 den la sensación de ser aún más cercanas a las que tendríamos con un ser humano.

El escalado no funciona, la desaceleración está aquí. GPT-4.5 es un ejemplo claro de cómo parece que hemos llegado a los límites del escalado. Tener un LLM gigantesco ya no parece aportar ventajas sobre sus antecesores, y dedicar más datos y más GPUs para entrenar estos modelos no parece tener mucho sentido. El propio Altman dejó claro que GPT-4.5 sería el último modelo de no razonamiento de la empresa. Esa es otra señal que demuestra que la desaceleración de la IA generativa, al menos en lo que se refiere a modelos tradicionales, es una realidad.

¿Por qué lo han lanzado entonces? En el blog de OpenAI se indica cómo «estamos compartiendo GPT-4.5 como un avance de investigación para comprender mejor sus puntos fuertes y sus limitaciones. Todavía estamos explorando de lo que es capaz y estamos ansiosos por ver cómo la gente lo utiliza de maneras que no habríamos esperado». Eso parece mostrar las dudas que sus propios creadores tienen con el modelo, y la pregunta por qué lo han lanzado.

Necesitan seguir generando «hype». Sobre todo teniendo en cuenta que los rivales están muy fuertes últimamente. Claude 3.7, Grok 3 y desde luego DeepSeek R1 han logrado darle la vuelta a la tortilla y plantear todo un reto para OpenAI, que hasta no hace mucho parecía estar un pasito por delante de sus rivales. Ahora eso no está nada claro, y en muchos apartados sus competidores ya superan las prestaciones de sus modelos. OpenAI necesita sacar pecho y decir «aquí estoy yo», pero quizás con GPT-4.5 ese movimiento salga mal, porque al menos a priori las prestaciones son decepcionantes.

Y los inversores aprietan. Algunos apuntan a otra teoría probable para este lanzamiento. OpenAI podría haberse visto obligada a lanzar GPT-4.5 ya contentar a los inversores, que han invertido miles de millones de dólares en la compañía y que necesitan estar tranquilos con su inversión. De nuevo aquí OpenAI tiene un problema, porque no parece que GPT-4.5 pueda dejarlos tranquilos. Será difícil que convenzan a nuevos inversores con este lanzamiento.

En Xataka | OpenAI tiene una oportunidad de oro para barrer a todos sus rivales: lanzar un ChatGPT ilimitado y lleno de publicidad

– La noticia

GPT-4.5 no es mejor que sus rivales en casi nada. Es la prueba de que los modelos de IA tradicionales ya casi no avanzan

fue publicada originalmente en

Xataka

por
Javier Pastor

Continue Reading
Advertisement