{"id":698,"date":"2026-03-17T14:00:23","date_gmt":"2026-03-17T18:00:23","guid":{"rendered":"https:\/\/ermdigital.com\/index.php\/2026\/03\/17\/la-europea-mistral-acaba-de-lanzar-small-4-su-apuesta-en-la-carrera-de-la-ia-es-reunir-varias-funciones-en-un-solo-modelo\/"},"modified":"2026-03-17T14:00:23","modified_gmt":"2026-03-17T18:00:23","slug":"la-europea-mistral-acaba-de-lanzar-small-4-su-apuesta-en-la-carrera-de-la-ia-es-reunir-varias-funciones-en-un-solo-modelo","status":"publish","type":"post","link":"https:\/\/ermdigital.com\/index.php\/2026\/03\/17\/la-europea-mistral-acaba-de-lanzar-small-4-su-apuesta-en-la-carrera-de-la-ia-es-reunir-varias-funciones-en-un-solo-modelo\/","title":{"rendered":"La europea Mistral acaba de lanzar Small 4: su apuesta en la carrera de la IA es reunir varias funciones en un solo modelo"},"content":{"rendered":"<p>\n      <img decoding=\"async\" src=\"https:\/\/i.blogs.es\/e1c564\/mistral-small-4\/1024_2000.png\" alt=\"La europea Mistral acaba de lanzar Small 4: su apuesta en la carrera de la IA es reunir varias funciones en un solo modelo\" \/>\n    <\/p>\n<p>La carrera de la inteligencia artificial suele contarse como una competici\u00f3n por ver qui\u00e9n construye el modelo m\u00e1s potente o el que domina m\u00e1s benchmarks. En medio de ese tablero, la startup francesa <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/robotica-e-ia\/mistral-ai-startup-francesa-que-aposto-eficiencia-deepseek-su-futuro-incierto\" data-vars-post-title=\"Mistral AI es la startup francesa que apost\u00f3 por la eficiencia antes que DeepSeek. Su futuro es incierto\" data-vars-post-url=\"https:\/\/www.xataka.com\/robotica-e-ia\/mistral-ai-startup-francesa-que-aposto-eficiencia-deepseek-su-futuro-incierto\">Mistral AI<\/a> <a rel=\"noopener, noreferrer\" href=\"https:\/\/mistral.ai\/news\/mistral-small-4\">acaba de presentar Mistral Small 4<\/a>, una propuesta que intenta ocupar un lugar distinto en esa conversaci\u00f3n. No se presenta como un modelo limitado a una sola funci\u00f3n, sino como uno que, seg\u00fan la compa\u00f1\u00eda, busca reunir varias capacidades avanzadas dentro de una misma herramienta.<\/p>\n<p><!-- BREAK 1 --><\/p>\n<p><strong>Qu\u00e9 es exactamente Small 4<\/strong>. La compa\u00f1\u00eda lo presenta como la nueva gran iteraci\u00f3n de su familia Mistral Small y, sobre todo, como el primer modelo de la casa que re\u00fane capacidades que antes estaban repartidas entre varias l\u00edneas. En concreto, integra funciones asociadas a Magistral, Pixtral y Devstral junto a las de la propia serie Small.<\/p>\n<p><strong>Menos modelos, m\u00e1s funciones<\/strong>. Una de las ideas centrales del anuncio es concentrar en un \u00fanico sistema tareas que normalmente se resuelven con herramientas distintas. Seg\u00fan Mistral, el objetivo es que el mismo modelo pueda utilizarse para conversar, analizar informaci\u00f3n compleja, trabajar con im\u00e1genes o asistir en programaci\u00f3n sin tener que alternar entre varios sistemas especializados.<\/p>\n<p><!-- BREAK 2 --><\/p>\n<div class=\"article-asset-video article-asset-normal\">\n<div class=\"asset-content\">\n<div class=\"base-asset-video\">\n<div class=\"js-dailymotion\"><\/div>\n<\/div>\n<\/div>\n<\/div>\n<p><strong>Los n\u00fameros detr\u00e1s de Small 4<\/strong>. El modelo se apoya en una arquitectura Mixture of Experts, un dise\u00f1o que distribuye el procesamiento entre distintos submodelos especializados y que hoy aparece en varios sistemas de inteligencia artificial. En el caso de Small 4, Mistral indica que el sistema cuenta con 128 expertos y que solo cuatro participan en cada token generado. Seg\u00fan la compa\u00f1\u00eda, el modelo alcanza 119B par\u00e1metros totales, con 6B activos por token, y ofrece una ventana de contexto de hasta 256k.<\/p>\n<p><!-- BREAK 3 --><\/p>\n<p><strong>Para qui\u00e9n est\u00e1 pensado este modelo<\/strong>. M\u00e1s all\u00e1 de su arquitectura, Mistral tambi\u00e9n describe con bastante claridad los escenarios en los que imagina el uso de Small 4. Veamos.<\/p>\n<ul>\n<li>Desarrolladores: automatizaci\u00f3n de tareas de programaci\u00f3n, exploraci\u00f3n de bases de c\u00f3digo y flujos de trabajo de agentes de c\u00f3digo<\/li>\n<li>Empresas: asistentes conversacionales, comprensi\u00f3n de documentos y an\u00e1lisis multimodal<\/li>\n<li>Investigaci\u00f3n: matem\u00e1ticas, an\u00e1lisis complejo y tareas de razonamiento<\/li>\n<\/ul>\n<p>La idea de fondo es que el modelo pueda moverse entre necesidades bastante distintas sin obligar a cambiar de sistema seg\u00fan el tipo de trabajo.<\/p>\n<p><strong>Los gr\u00e1ficos<\/strong>. En el material que acompa\u00f1a el anuncio, Mistral incluye varios gr\u00e1ficos donde compara Small 4 con otros modelos en distintos benchmarks. Esas comparaciones no se limitan a la puntuaci\u00f3n obtenida en cada prueba. Tambi\u00e9n muestran la longitud media de las respuestas que genera cada sistema, un dato que la empresa utiliza para ilustrar cu\u00e1nto texto necesita producir cada modelo para alcanzar determinados resultados.<\/p>\n<div class=\"article-asset-image article-asset-normal article-asset-center\">\n<div class=\"asset-content\">\n<p>   <img decoding=\"async\" alt=\"Mistra Ai Ci\" class=\"centro_sinmarco\" src=\"https:\/\/i.blogs.es\/65c7d4\/mistra-ai-ci\/450_1000.jpeg\" \/><\/p><\/div>\n<\/div>\n<p>Uno de los gr\u00e1ficos del anuncio corresponde al benchmark AA LCR, donde Mistral compara la puntuaci\u00f3n de varios modelos y la longitud media de las respuestas que generan para resolver las mismas tareas. Los datos que publica la empresa son los siguientes:<\/p>\n<p><!-- BREAK 4 --><\/p>\n<p>\u2022 \u00a0\u00a0\u00a0Mistral Small 4: 0,72 de puntuaci\u00f3n con 1.600 caracteres<br \/>\u2022 \u00a0\u00a0\u00a0<a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/basics\/como-instalar-nuevos-modelos-got-oss-openai-tu-ordenador-para-tener-tu-propio-chatgpt-local\" data-vars-post-title=\"C\u00f3mo instalar los nuevos modelos gpt-oss de OpenAI en tu ordenador para tener tu propio ChatGPT en local\" data-vars-post-url=\"https:\/\/www.xataka.com\/basics\/como-instalar-nuevos-modelos-got-oss-openai-tu-ordenador-para-tener-tu-propio-chatgpt-local\">GPT-OSS<\/a> 120B: 0,51 con 2.500 caracteres<br \/>\u2022 \u00a0\u00a0\u00a0Claude Haiku: 0,80 con 2.700 caracteres<br \/>\u2022 \u00a0\u00a0\u00a0Qwen3-next 80B: 0,75 con 5.800 caracteres<br \/>\u2022 \u00a0\u00a0\u00a0Qwen3.5 122B: 0,84 con 5.700 caracteres<\/p>\n<p><strong>La comparaci\u00f3n<\/strong>. Small 4 no es el modelo con la puntuaci\u00f3n m\u00e1s alta. Tanto Claude Haiku como los modelos de Qwen aparecen por encima en ese indicador. Sin embargo, Mistral destaca otro aspecto de la comparaci\u00f3n: la longitud de las respuestas. Seg\u00fan la empresa, su modelo logra esa combinaci\u00f3n de puntuaci\u00f3n y longitud de salida generando bastante menos texto que varios de sus competidores, algo que relaciona con menor latencia y menor coste de inferencia.<\/p>\n<p><!-- BREAK 5 --><\/p>\n<p><strong>El truco de las respuestas cortas<\/strong>. Una respuesta m\u00e1s corta no es mejor por el simple hecho de ocupar menos espacio. Solo lo es si consigue resolver la tarea con un nivel de calidad comparable al de una respuesta m\u00e1s larga. Ah\u00ed es donde Mistral intenta poner el foco: si un modelo alcanza un resultado competitivo generando menos texto, puede responder antes, consumir menos recursos y reducir el coste de inferencia. En otras palabras, la ventaja no est\u00e1 en ser m\u00e1s escueto, sino en necesitar menos salida para llegar a un resultado \u00fatil.<\/p>\n<div class=\"article-asset article-asset-normal article-asset-center\">\n<div class=\"desvio-container\">\n<div class=\"desvio\">\n<div class=\"desvio-figure js-desvio-figure\">\n    <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/creiamos-que-capturabamos-pokemon-movil-que-no-sabiamos-que-realidad-estabamos-preparando-mundo-para-maquinas\" class=\"pivot-outboundlink\" data-vars-post-title=\"En 2016 millones de personas salieron a cazar Pok\u00e9mon a la calle. En 2026 hay robots aut\u00f3nomos gui\u00e1ndose gracias a ello\"><br \/>\n     <img loading=\"lazy\" decoding=\"async\" alt=\"En 2016 millones de personas salieron a cazar Pok\u00e9mon a la calle. En 2026 hay robots aut\u00f3nomos gui\u00e1ndose gracias a ello\" width=\"375\" height=\"142\" src=\"https:\/\/i.blogs.es\/9a6a2f\/coco\/375_142.jpeg\" \/><br \/>\n    <\/a>\n   <\/div>\n<div class=\"desvio-summary\">\n<div class=\"desvio-taxonomy js-desvio-taxonomy\">\n     <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/creiamos-que-capturabamos-pokemon-movil-que-no-sabiamos-que-realidad-estabamos-preparando-mundo-para-maquinas\" class=\"desvio-taxonomy-anchor pivot-outboundlink\" data-vars-post-title=\"En 2016 millones de personas salieron a cazar Pok\u00e9mon a la calle. En 2026 hay robots aut\u00f3nomos gui\u00e1ndose gracias a ello\">En Xataka<\/a>\n    <\/div>\n<p>    <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/creiamos-que-capturabamos-pokemon-movil-que-no-sabiamos-que-realidad-estabamos-preparando-mundo-para-maquinas\" class=\"desvio-title js-desvio-title pivot-outboundlink\" data-vars-post-title=\"En 2016 millones de personas salieron a cazar Pok\u00e9mon a la calle. En 2026 hay robots aut\u00f3nomos gui\u00e1ndose gracias a ello\">En 2016 millones de personas salieron a cazar Pok\u00e9mon a la calle. En 2026 hay robots aut\u00f3nomos gui\u00e1ndose gracias a ello<\/a>\n   <\/p><\/div>\n<\/div>\n<\/div>\n<\/div>\n<p><strong>C\u00f3mo acceder al nuevo modelo<\/strong>. Small 4 no solo puede usarse <a rel=\"noopener, noreferrer\" href=\"https:\/\/docs.mistral.ai\/api\">a trav\u00e9s de la API<\/a> <a rel=\"noopener, noreferrer\" href=\"https:\/\/mistral.ai\/products\/studio\">y AI Studio<\/a>. Al estar publicado bajo licencia <a rel=\"noopener, noreferrer\" href=\"https:\/\/www.apache.org\/licenses\/LICENSE-2.0\">Apache 2.0<\/a>, tambi\u00e9n se plantea como un modelo abierto que puede descargarse, ajustarse y desplegarse en entornos propios. La empresa a\u00f1ade que puede probarse gratis en build.nvidia.com, adem\u00e1s de ofrecerlo para producci\u00f3n como <a rel=\"noopener, noreferrer\" href=\"https:\/\/developer.nvidia.com\/nim\">NVIDIA NIM<\/a>.<\/p>\n<p><!-- BREAK 6 --><\/p>\n<p>Im\u00e1genes | Mistral<\/p>\n<p>En Xataka | <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/robotica-e-ia\/anthropic-esta-ganando-carrera-ia-empresas-asi-que-openai-tiene-nuevo-plan-convertirse-anthropic\" data-vars-post-title=\"OpenAI lleva a\u00f1os queriendo ser la novia en la boda y el muerto en el entierro: ahora ha definido al fin su prioridad\" data-vars-post-url=\"https:\/\/www.xataka.com\/robotica-e-ia\/anthropic-esta-ganando-carrera-ia-empresas-asi-que-openai-tiene-nuevo-plan-convertirse-anthropic\">OpenAI lleva a\u00f1os queriendo ser la novia en la boda y el muerto en el entierro: ahora ha definido al fin su prioridad<\/a><\/p>\n<p> &#8211; <br \/> La noticia<br \/>\n      <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/europea-mistral-acaba-lanzar-small-4-su-apuesta-carrera-ia-reunir-varias-funciones-solo-modelo?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=17_Mar_2026\"><br \/>\n       <em> La europea Mistral acaba de lanzar Small 4: su apuesta en la carrera de la IA es reunir varias funciones en un solo modelo <\/em><br \/>\n      <\/a><br \/>\n      fue publicada originalmente en<br \/>\n      <a href=\"https:\/\/www.xataka.com\/?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=17_Mar_2026\"><br \/>\n       <strong> Xataka <\/strong><br \/>\n      <\/a><br \/>\n             por <a href=\"https:\/\/www.xataka.com\/autor\/javier-marquez?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=17_Mar_2026\"><br \/>\n        Javier Marquez<br \/>\n       <\/a><br \/>\n      . <\/p>\n<p>\u00a0La carrera de la inteligencia artificial suele contarse como una competici\u00f3n por ver qui\u00e9n construye el modelo m\u00e1s potente o el que domina m\u00e1s benchmarks. En medio de ese tablero, la startup francesa Mistral AI acaba de presentar Mistral Small 4, una propuesta que intenta ocupar un lugar distinto en esa conversaci\u00f3n. No se presenta como un modelo limitado a una sola funci\u00f3n, sino como uno que, seg\u00fan la compa\u00f1\u00eda, busca reunir varias capacidades avanzadas dentro de una misma herramienta.<br \/>\nQu\u00e9 es exactamente Small 4. La compa\u00f1\u00eda lo presenta como la nueva gran iteraci\u00f3n de su familia Mistral Small y, sobre todo, como el primer modelo de la casa que re\u00fane capacidades que antes estaban repartidas entre varias l\u00edneas. En concreto, integra funciones asociadas a Magistral, Pixtral y Devstral junto a las de la propia serie Small.<br \/>\nMenos modelos, m\u00e1s funciones. Una de las ideas centrales del anuncio es concentrar en un \u00fanico sistema tareas que normalmente se resuelven con herramientas distintas. Seg\u00fan Mistral, el objetivo es que el mismo modelo pueda utilizarse para conversar, analizar informaci\u00f3n compleja, trabajar con im\u00e1genes o asistir en programaci\u00f3n sin tener que alternar entre varios sistemas especializados.<\/p>\n<p>Los n\u00fameros detr\u00e1s de Small 4. El modelo se apoya en una arquitectura Mixture of Experts, un dise\u00f1o que distribuye el procesamiento entre distintos submodelos especializados y que hoy aparece en varios sistemas de inteligencia artificial. En el caso de Small 4, Mistral indica que el sistema cuenta con 128 expertos y que solo cuatro participan en cada token generado. Seg\u00fan la compa\u00f1\u00eda, el modelo alcanza 119B par\u00e1metros totales, con 6B activos por token, y ofrece una ventana de contexto de hasta 256k.<br \/>\nPara qui\u00e9n est\u00e1 pensado este modelo. M\u00e1s all\u00e1 de su arquitectura, Mistral tambi\u00e9n describe con bastante claridad los escenarios en los que imagina el uso de Small 4. Veamos.<br \/>\nDesarrolladores: automatizaci\u00f3n de tareas de programaci\u00f3n, exploraci\u00f3n de bases de c\u00f3digo y flujos de trabajo de agentes de c\u00f3digoEmpresas: asistentes conversacionales, comprensi\u00f3n de documentos y an\u00e1lisis multimodalInvestigaci\u00f3n: matem\u00e1ticas, an\u00e1lisis complejo y tareas de razonamiento<br \/>\nLa idea de fondo es que el modelo pueda moverse entre necesidades bastante distintas sin obligar a cambiar de sistema seg\u00fan el tipo de trabajo.<br \/>\nLos gr\u00e1ficos. En el material que acompa\u00f1a el anuncio, Mistral incluye varios gr\u00e1ficos donde compara Small 4 con otros modelos en distintos benchmarks. Esas comparaciones no se limitan a la puntuaci\u00f3n obtenida en cada prueba. Tambi\u00e9n muestran la longitud media de las respuestas que genera cada sistema, un dato que la empresa utiliza para ilustrar cu\u00e1nto texto necesita producir cada modelo para alcanzar determinados resultados.<\/p>\n<p>Uno de los gr\u00e1ficos del anuncio corresponde al benchmark AA LCR, donde Mistral compara la puntuaci\u00f3n de varios modelos y la longitud media de las respuestas que generan para resolver las mismas tareas. Los datos que publica la empresa son los siguientes:<br \/>\n\u2022 \u00a0\u00a0\u00a0Mistral Small 4: 0,72 de puntuaci\u00f3n con 1.600 caracteres\u2022 \u00a0\u00a0\u00a0GPT-OSS 120B: 0,51 con 2.500 caracteres\u2022 \u00a0\u00a0\u00a0Claude Haiku: 0,80 con 2.700 caracteres\u2022 \u00a0\u00a0\u00a0Qwen3-next 80B: 0,75 con 5.800 caracteres\u2022 \u00a0\u00a0\u00a0Qwen3.5 122B: 0,84 con 5.700 caracteres<br \/>\nLa comparaci\u00f3n. Small 4 no es el modelo con la puntuaci\u00f3n m\u00e1s alta. Tanto Claude Haiku como los modelos de Qwen aparecen por encima en ese indicador. Sin embargo, Mistral destaca otro aspecto de la comparaci\u00f3n: la longitud de las respuestas. Seg\u00fan la empresa, su modelo logra esa combinaci\u00f3n de puntuaci\u00f3n y longitud de salida generando bastante menos texto que varios de sus competidores, algo que relaciona con menor latencia y menor coste de inferencia.<br \/>\nEl truco de las respuestas cortas. Una respuesta m\u00e1s corta no es mejor por el simple hecho de ocupar menos espacio. Solo lo es si consigue resolver la tarea con un nivel de calidad comparable al de una respuesta m\u00e1s larga. Ah\u00ed es donde Mistral intenta poner el foco: si un modelo alcanza un resultado competitivo generando menos texto, puede responder antes, consumir menos recursos y reducir el coste de inferencia. En otras palabras, la ventaja no est\u00e1 en ser m\u00e1s escueto, sino en necesitar menos salida para llegar a un resultado \u00fatil.<\/p>\n<p>     En Xataka<\/p>\n<p>    En 2016 millones de personas salieron a cazar Pok\u00e9mon a la calle. En 2026 hay robots aut\u00f3nomos gui\u00e1ndose gracias a ello<\/p>\n<p>C\u00f3mo acceder al nuevo modelo. Small 4 no solo puede usarse a trav\u00e9s de la API y AI Studio. Al estar publicado bajo licencia Apache 2.0, tambi\u00e9n se plantea como un modelo abierto que puede descargarse, ajustarse y desplegarse en entornos propios. La empresa a\u00f1ade que puede probarse gratis en build.nvidia.com, adem\u00e1s de ofrecerlo para producci\u00f3n como NVIDIA NIM.<br \/>\nIm\u00e1genes | Mistral<br \/>\nEn Xataka | OpenAI lleva a\u00f1os queriendo ser la novia en la boda y el muerto en el entierro: ahora ha definido al fin su prioridad<\/p>\n<p>                 &#8211;  La noticia<\/p>\n<p>        La europea Mistral acaba de lanzar Small 4: su apuesta en la carrera de la IA es reunir varias funciones en un solo modelo <\/p>\n<p>      fue publicada originalmente en<\/p>\n<p>        Xataka <\/p>\n<p>             por<br \/>\n        Javier Marquez<\/p>\n<p>      .\u00a0\u00a0\u00a0<\/p>","protected":false},"excerpt":{"rendered":"<p>La carrera de la inteligencia artificial suele contarse como una competici\u00f3n por ver qui\u00e9n construye el modelo m\u00e1s potente o el que domina m\u00e1s benchmarks. En medio de ese tablero, la startup francesa Mistral AI acaba de presentar Mistral Small 4, una propuesta que intenta ocupar un lugar distinto en esa conversaci\u00f3n. No se presenta [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":699,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"amp_status":"","footnotes":""},"categories":[6],"tags":[],"class_list":["post-698","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ciencia-y-tecnologia"],"_links":{"self":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts\/698","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/comments?post=698"}],"version-history":[{"count":0,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts\/698\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/media\/699"}],"wp:attachment":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/media?parent=698"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/categories?post=698"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/tags?post=698"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}