Ciencia y Tecnología

La europea Mistral acaba de lanzar Small 4: su apuesta en la carrera de la IA es reunir varias funciones en un solo modelo

Published

on

<p>&NewLine; <img src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;e1c564&sol;mistral-small-4&sol;1024&lowbar;2000&period;png" alt&equals;"La europea Mistral acaba de lanzar Small 4&colon; su apuesta en la carrera de la IA es reunir varias funciones en un solo modelo" &sol;>&NewLine; <&sol;p>&NewLine;<p>La carrera de la inteligencia artificial suele contarse como una competición por ver quién construye el modelo más potente o el que domina más benchmarks&period; En medio de ese tablero&comma; la startup francesa <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;mistral-ai-startup-francesa-que-aposto-eficiencia-deepseek-su-futuro-incierto" data-vars-post-title&equals;"Mistral AI es la startup francesa que apostó por la eficiencia antes que DeepSeek&period; Su futuro es incierto" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;mistral-ai-startup-francesa-que-aposto-eficiencia-deepseek-su-futuro-incierto">Mistral AI<&sol;a> <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;mistral&period;ai&sol;news&sol;mistral-small-4">acaba de presentar Mistral Small 4<&sol;a>&comma; una propuesta que intenta ocupar un lugar distinto en esa conversación&period; No se presenta como un modelo limitado a una sola función&comma; sino como uno que&comma; según la compañía&comma; busca reunir varias capacidades avanzadas dentro de una misma herramienta&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 1 --><&sol;p>&NewLine;<p><strong>Qué es exactamente Small 4<&sol;strong>&period; La compañía lo presenta como la nueva gran iteración de su familia Mistral Small y&comma; sobre todo&comma; como el primer modelo de la casa que reúne capacidades que antes estaban repartidas entre varias líneas&period; En concreto&comma; integra funciones asociadas a Magistral&comma; Pixtral y Devstral junto a las de la propia serie Small&period;<&sol;p>&NewLine;<p><strong>Menos modelos&comma; más funciones<&sol;strong>&period; Una de las ideas centrales del anuncio es concentrar en un único sistema tareas que normalmente se resuelven con herramientas distintas&period; Según Mistral&comma; el objetivo es que el mismo modelo pueda utilizarse para conversar&comma; analizar información compleja&comma; trabajar con imágenes o asistir en programación sin tener que alternar entre varios sistemas especializados&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 2 --><&sol;p>&NewLine;<div class&equals;"article-asset-video article-asset-normal">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"base-asset-video">&NewLine;<div class&equals;"js-dailymotion"><&sol;div>&NewLine;<&sol;div>&NewLine;<&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Los números detrás de Small 4<&sol;strong>&period; El modelo se apoya en una arquitectura Mixture of Experts&comma; un diseño que distribuye el procesamiento entre distintos submodelos especializados y que hoy aparece en varios sistemas de inteligencia artificial&period; En el caso de Small 4&comma; Mistral indica que el sistema cuenta con 128 expertos y que solo cuatro participan en cada token generado&period; Según la compañía&comma; el modelo alcanza 119B parámetros totales&comma; con 6B activos por token&comma; y ofrece una ventana de contexto de hasta 256k&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 3 --><&sol;p>&NewLine;<p><strong>Para quién está pensado este modelo<&sol;strong>&period; Más allá de su arquitectura&comma; Mistral también describe con bastante claridad los escenarios en los que imagina el uso de Small 4&period; Veamos&period;<&sol;p>&NewLine;<ul>&NewLine;<li>Desarrolladores&colon; automatización de tareas de programación&comma; exploración de bases de código y flujos de trabajo de agentes de código<&sol;li>&NewLine;<li>Empresas&colon; asistentes conversacionales&comma; comprensión de documentos y análisis multimodal<&sol;li>&NewLine;<li>Investigación&colon; matemáticas&comma; análisis complejo y tareas de razonamiento<&sol;li>&NewLine;<&sol;ul>&NewLine;<p>La idea de fondo es que el modelo pueda moverse entre necesidades bastante distintas sin obligar a cambiar de sistema según el tipo de trabajo&period;<&sol;p>&NewLine;<p><strong>Los gráficos<&sol;strong>&period; En el material que acompaña el anuncio&comma; Mistral incluye varios gráficos donde compara Small 4 con otros modelos en distintos benchmarks&period; Esas comparaciones no se limitan a la puntuación obtenida en cada prueba&period; También muestran la longitud media de las respuestas que genera cada sistema&comma; un dato que la empresa utiliza para ilustrar cuánto texto necesita producir cada modelo para alcanzar determinados resultados&period;<&sol;p>&NewLine;<div class&equals;"article-asset-image article-asset-normal article-asset-center">&NewLine;<div class&equals;"asset-content">&NewLine;<p> <img alt&equals;"Mistra Ai Ci" class&equals;"centro&lowbar;sinmarco" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;65c7d4&sol;mistra-ai-ci&sol;450&lowbar;1000&period;jpeg" &sol;><&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>Uno de los gráficos del anuncio corresponde al benchmark AA LCR&comma; donde Mistral compara la puntuación de varios modelos y la longitud media de las respuestas que generan para resolver las mismas tareas&period; Los datos que publica la empresa son los siguientes&colon;<&sol;p>&NewLine;<p><&excl;-- BREAK 4 --><&sol;p>&NewLine;<p>•    Mistral Small 4&colon; 0&comma;72 de puntuación con 1&period;600 caracteres<br &sol;>•    <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;como-instalar-nuevos-modelos-got-oss-openai-tu-ordenador-para-tener-tu-propio-chatgpt-local" data-vars-post-title&equals;"Cómo instalar los nuevos modelos gpt-oss de OpenAI en tu ordenador para tener tu propio ChatGPT en local" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;como-instalar-nuevos-modelos-got-oss-openai-tu-ordenador-para-tener-tu-propio-chatgpt-local">GPT-OSS<&sol;a> 120B&colon; 0&comma;51 con 2&period;500 caracteres<br &sol;>•    Claude Haiku&colon; 0&comma;80 con 2&period;700 caracteres<br &sol;>•    Qwen3-next 80B&colon; 0&comma;75 con 5&period;800 caracteres<br &sol;>•    Qwen3&period;5 122B&colon; 0&comma;84 con 5&period;700 caracteres<&sol;p>&NewLine;<p><strong>La comparación<&sol;strong>&period; Small 4 no es el modelo con la puntuación más alta&period; Tanto Claude Haiku como los modelos de Qwen aparecen por encima en ese indicador&period; Sin embargo&comma; Mistral destaca otro aspecto de la comparación&colon; la longitud de las respuestas&period; Según la empresa&comma; su modelo logra esa combinación de puntuación y longitud de salida generando bastante menos texto que varios de sus competidores&comma; algo que relaciona con menor latencia y menor coste de inferencia&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 5 --><&sol;p>&NewLine;<p><strong>El truco de las respuestas cortas<&sol;strong>&period; Una respuesta más corta no es mejor por el simple hecho de ocupar menos espacio&period; Solo lo es si consigue resolver la tarea con un nivel de calidad comparable al de una respuesta más larga&period; Ahí es donde Mistral intenta poner el foco&colon; si un modelo alcanza un resultado competitivo generando menos texto&comma; puede responder antes&comma; consumir menos recursos y reducir el coste de inferencia&period; En otras palabras&comma; la ventaja no está en ser más escueto&comma; sino en necesitar menos salida para llegar a un resultado útil&period;<&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;creiamos-que-capturabamos-pokemon-movil-que-no-sabiamos-que-realidad-estabamos-preparando-mundo-para-maquinas" class&equals;"pivot-outboundlink" data-vars-post-title&equals;"En 2016 millones de personas salieron a cazar Pokémon a la calle&period; En 2026 hay robots autónomos guiándose gracias a ello"><br &sol;>&NewLine; <img alt&equals;"En 2016 millones de personas salieron a cazar Pokémon a la calle&period; En 2026 hay robots autónomos guiándose gracias a ello" width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;9a6a2f&sol;coco&sol;375&lowbar;142&period;jpeg" &sol;><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;creiamos-que-capturabamos-pokemon-movil-que-no-sabiamos-que-realidad-estabamos-preparando-mundo-para-maquinas" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;"En 2016 millones de personas salieron a cazar Pokémon a la calle&period; En 2026 hay robots autónomos guiándose gracias a ello">En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;creiamos-que-capturabamos-pokemon-movil-que-no-sabiamos-que-realidad-estabamos-preparando-mundo-para-maquinas" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;"En 2016 millones de personas salieron a cazar Pokémon a la calle&period; En 2026 hay robots autónomos guiándose gracias a ello">En 2016 millones de personas salieron a cazar Pokémon a la calle&period; En 2026 hay robots autónomos guiándose gracias a ello<&sol;a>&NewLine; <&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Cómo acceder al nuevo modelo<&sol;strong>&period; Small 4 no solo puede usarse <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;docs&period;mistral&period;ai&sol;api">a través de la API<&sol;a> <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;mistral&period;ai&sol;products&sol;studio">y AI Studio<&sol;a>&period; Al estar publicado bajo licencia <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;apache&period;org&sol;licenses&sol;LICENSE-2&period;0">Apache 2&period;0<&sol;a>&comma; también se plantea como un modelo abierto que puede descargarse&comma; ajustarse y desplegarse en entornos propios&period; La empresa añade que puede probarse gratis en build&period;nvidia&period;com&comma; además de ofrecerlo para producción como <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;developer&period;nvidia&period;com&sol;nim">NVIDIA NIM<&sol;a>&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 6 --><&sol;p>&NewLine;<p>Imágenes &vert; Mistral<&sol;p>&NewLine;<p>En Xataka &vert; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;anthropic-esta-ganando-carrera-ia-empresas-asi-que-openai-tiene-nuevo-plan-convertirse-anthropic" data-vars-post-title&equals;"OpenAI lleva años queriendo ser la novia en la boda y el muerto en el entierro&colon; ahora ha definido al fin su prioridad" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;anthropic-esta-ganando-carrera-ia-empresas-asi-que-openai-tiene-nuevo-plan-convertirse-anthropic">OpenAI lleva años queriendo ser la novia en la boda y el muerto en el entierro&colon; ahora ha definido al fin su prioridad<&sol;a><&sol;p>&NewLine;<p> &&num;8211&semi; <br &sol;> La noticia<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;europea-mistral-acaba-lanzar-small-4-su-apuesta-carrera-ia-reunir-varias-funciones-solo-modelo&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;17&lowbar;Mar&lowbar;2026"><br &sol;>&NewLine; <em> La europea Mistral acaba de lanzar Small 4&colon; su apuesta en la carrera de la IA es reunir varias funciones en un solo modelo <&sol;em><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; fue publicada originalmente en<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;17&lowbar;Mar&lowbar;2026"><br &sol;>&NewLine; <strong> Xataka <&sol;strong><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; por <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;autor&sol;javier-marquez&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;17&lowbar;Mar&lowbar;2026"><br &sol;>&NewLine; Javier Marquez<br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; &period; <&sol;p>&NewLine;<p> La carrera de la inteligencia artificial suele contarse como una competición por ver quién construye el modelo más potente o el que domina más benchmarks&period; En medio de ese tablero&comma; la startup francesa Mistral AI acaba de presentar Mistral Small 4&comma; una propuesta que intenta ocupar un lugar distinto en esa conversación&period; No se presenta como un modelo limitado a una sola función&comma; sino como uno que&comma; según la compañía&comma; busca reunir varias capacidades avanzadas dentro de una misma herramienta&period;<br &sol;>&NewLine;Qué es exactamente Small 4&period; La compañía lo presenta como la nueva gran iteración de su familia Mistral Small y&comma; sobre todo&comma; como el primer modelo de la casa que reúne capacidades que antes estaban repartidas entre varias líneas&period; En concreto&comma; integra funciones asociadas a Magistral&comma; Pixtral y Devstral junto a las de la propia serie Small&period;<br &sol;>&NewLine;Menos modelos&comma; más funciones&period; Una de las ideas centrales del anuncio es concentrar en un único sistema tareas que normalmente se resuelven con herramientas distintas&period; Según Mistral&comma; el objetivo es que el mismo modelo pueda utilizarse para conversar&comma; analizar información compleja&comma; trabajar con imágenes o asistir en programación sin tener que alternar entre varios sistemas especializados&period;<&sol;p>&NewLine;<p>Los números detrás de Small 4&period; El modelo se apoya en una arquitectura Mixture of Experts&comma; un diseño que distribuye el procesamiento entre distintos submodelos especializados y que hoy aparece en varios sistemas de inteligencia artificial&period; En el caso de Small 4&comma; Mistral indica que el sistema cuenta con 128 expertos y que solo cuatro participan en cada token generado&period; Según la compañía&comma; el modelo alcanza 119B parámetros totales&comma; con 6B activos por token&comma; y ofrece una ventana de contexto de hasta 256k&period;<br &sol;>&NewLine;Para quién está pensado este modelo&period; Más allá de su arquitectura&comma; Mistral también describe con bastante claridad los escenarios en los que imagina el uso de Small 4&period; Veamos&period;<br &sol;>&NewLine;Desarrolladores&colon; automatización de tareas de programación&comma; exploración de bases de código y flujos de trabajo de agentes de códigoEmpresas&colon; asistentes conversacionales&comma; comprensión de documentos y análisis multimodalInvestigación&colon; matemáticas&comma; análisis complejo y tareas de razonamiento<br &sol;>&NewLine;La idea de fondo es que el modelo pueda moverse entre necesidades bastante distintas sin obligar a cambiar de sistema según el tipo de trabajo&period;<br &sol;>&NewLine;Los gráficos&period; En el material que acompaña el anuncio&comma; Mistral incluye varios gráficos donde compara Small 4 con otros modelos en distintos benchmarks&period; Esas comparaciones no se limitan a la puntuación obtenida en cada prueba&period; También muestran la longitud media de las respuestas que genera cada sistema&comma; un dato que la empresa utiliza para ilustrar cuánto texto necesita producir cada modelo para alcanzar determinados resultados&period;<&sol;p>&NewLine;<p>Uno de los gráficos del anuncio corresponde al benchmark AA LCR&comma; donde Mistral compara la puntuación de varios modelos y la longitud media de las respuestas que generan para resolver las mismas tareas&period; Los datos que publica la empresa son los siguientes&colon;<br &sol;>&NewLine;•    Mistral Small 4&colon; 0&comma;72 de puntuación con 1&period;600 caracteres•    GPT-OSS 120B&colon; 0&comma;51 con 2&period;500 caracteres•    Claude Haiku&colon; 0&comma;80 con 2&period;700 caracteres•    Qwen3-next 80B&colon; 0&comma;75 con 5&period;800 caracteres•    Qwen3&period;5 122B&colon; 0&comma;84 con 5&period;700 caracteres<br &sol;>&NewLine;La comparación&period; Small 4 no es el modelo con la puntuación más alta&period; Tanto Claude Haiku como los modelos de Qwen aparecen por encima en ese indicador&period; Sin embargo&comma; Mistral destaca otro aspecto de la comparación&colon; la longitud de las respuestas&period; Según la empresa&comma; su modelo logra esa combinación de puntuación y longitud de salida generando bastante menos texto que varios de sus competidores&comma; algo que relaciona con menor latencia y menor coste de inferencia&period;<br &sol;>&NewLine;El truco de las respuestas cortas&period; Una respuesta más corta no es mejor por el simple hecho de ocupar menos espacio&period; Solo lo es si consigue resolver la tarea con un nivel de calidad comparable al de una respuesta más larga&period; Ahí es donde Mistral intenta poner el foco&colon; si un modelo alcanza un resultado competitivo generando menos texto&comma; puede responder antes&comma; consumir menos recursos y reducir el coste de inferencia&period; En otras palabras&comma; la ventaja no está en ser más escueto&comma; sino en necesitar menos salida para llegar a un resultado útil&period;<&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> En 2016 millones de personas salieron a cazar Pokémon a la calle&period; En 2026 hay robots autónomos guiándose gracias a ello<&sol;p>&NewLine;<p>Cómo acceder al nuevo modelo&period; Small 4 no solo puede usarse a través de la API y AI Studio&period; Al estar publicado bajo licencia Apache 2&period;0&comma; también se plantea como un modelo abierto que puede descargarse&comma; ajustarse y desplegarse en entornos propios&period; La empresa añade que puede probarse gratis en build&period;nvidia&period;com&comma; además de ofrecerlo para producción como NVIDIA NIM&period;<br &sol;>&NewLine;Imágenes &vert; Mistral<br &sol;>&NewLine;En Xataka &vert; OpenAI lleva años queriendo ser la novia en la boda y el muerto en el entierro&colon; ahora ha definido al fin su prioridad<&sol;p>&NewLine;<p> &&num;8211&semi; La noticia<&sol;p>&NewLine;<p> La europea Mistral acaba de lanzar Small 4&colon; su apuesta en la carrera de la IA es reunir varias funciones en un solo modelo <&sol;p>&NewLine;<p> fue publicada originalmente en<&sol;p>&NewLine;<p> Xataka <&sol;p>&NewLine;<p> por<br &sol;>&NewLine; Javier Marquez<&sol;p>&NewLine;<p> &period;   <&sol;p>

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Copyright 2025 ERM Digital. Todos los derechos reservados.