Ciencia y Tecnología

El arranque de ALIA, el modelo de IA español, ha sido errático y decepcionante. Ahora sabemos por qué

Published

on

<p>&NewLine; <img src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;0ac875&sol;alia-marenostrum4&sol;1024&lowbar;2000&period;jpeg" alt&equals;"El arranque de ALIA&comma; el modelo de IA español&comma; ha sido errático y decepcionante&period; Ahora sabemos por qué ">&NewLine; <&sol;p>&NewLine;<p>Empecemos por lo importante&period; ALIA&comma; el modelo de IA español&comma; <strong>no tenía que haberse lanzado<&sol;strong><strong> cuando se lanzó<&sol;strong>&period; <&sol;p>&NewLine;<p>En Xataka hemos hablado con uno de los principales responsables de su desarrollo y eso nos ha permitido conocer y entender mucho mejor su alcance y sus objetivos&comma; pero también por qué la &lpar;inevitable&rpar; comparación con ChatGPT no solo es injusta&colon; es inapropiada&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 1 --><&sol;p>&NewLine;<p>ALIA-40b es un modelo fundacional de IA&comma; esto es&comma; un modelo de inteligencia artificial de gran escala entrenado con una cantidad masiva y diversa de datos&comma; y que sirve como base para multitud de aplicaciones distintas&period; Este proyecto está coordinado por el Barcelona Supercomputing Center &lpar;<a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;bsc&period;es&sol;">BSC-CNS<&sol;a>&rpar;&comma; y aunque se ha podido beneficiar de la infraestructura del <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;investigacion&sol;marenostrum-5-esta-marcha-gran-salto-espana-para-estar-primera-liga-supercomputacion-mundial" data-vars-post-title&equals;"El MareNostrum 5 ya está en marcha&colon; el gran salto de España para estar en la primera liga de la supercomputación mundial" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;investigacion&sol;marenostrum-5-esta-marcha-gran-salto-espana-para-estar-primera-liga-supercomputacion-mundial">supercomputador MareNostrum 5<&sol;a>&comma; incluso esa ventaja ha sido limitada&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 2 --><&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;asi-alia-modelo-ia-espanola-que-puede-quiere-competir-chatgpt" class&equals;"pivot-outboundlink" data-vars-post-title&equals;'"El objetivo no es competir con ChatGPT"&colon; hablamos con los creadores de ALIA&comma; la IA 100&percnt; española&comma; para entender su futuro'><br &sol;>&NewLine; <img alt&equals;'"El objetivo no es competir con ChatGPT"&colon; hablamos con los creadores de ALIA&comma; la IA 100&percnt; española&comma; para entender su futuro' width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;8173cd&sol;alia-1&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;asi-alia-modelo-ia-espanola-que-puede-quiere-competir-chatgpt" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;'"El objetivo no es competir con ChatGPT"&colon; hablamos con los creadores de ALIA&comma; la IA 100&percnt; española&comma; para entender su futuro'>En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;asi-alia-modelo-ia-espanola-que-puede-quiere-competir-chatgpt" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;'"El objetivo no es competir con ChatGPT"&colon; hablamos con los creadores de ALIA&comma; la IA 100&percnt; española&comma; para entender su futuro'>&&num;8220&semi;El objetivo no es competir con ChatGPT&&num;8221&semi;&colon; hablamos con los creadores de ALIA&comma; la IA 100&percnt; española&comma; para entender su futuro<&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>Como decimos&comma; comparar el rendimiento de <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;huggingface&period;co&sol;BSC-LT&sol;ALIA-40b">ALIA-40b<&sol;a> con el de modelos como GPT-5 o Gemini 3 es inapropiado&comma; y para entenderlo todo mejor hay que entender de dónde parte el proyecto&comma; qué objetivos tiene y cómo su desarrollo es mucho más modesto —y aun así prometedor— que el de los grandes modelos propietarios de EEUU y también el de los llamativos modelos abiertos que están apareciendo en China&period; Conozcamos más de cerca qué pasó con ALIA&&num;8230&semi; y qué esperamos que pase&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 3 --><&sol;p>&NewLine;<h2>Promesas y realidades<&sol;h2>&NewLine;<p>Aquel 20 de enero de 2025&comma; Pedro Sánchez&comma; presidente del Gobierno de España&comma; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;pedro-sanchez-anuncia-lanzamiento-primeros-modelos-alia-asi-ia-publica-abierta-que-impulsa-estado" data-vars-post-title&equals;'Pedro Sánchez anuncia el lanzamiento de los primeros modelos de ALIA&colon; así es la IA "pública y abierta” que impulsa el Estado' data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;pedro-sanchez-anuncia-lanzamiento-primeros-modelos-alia-asi-ia-publica-abierta-que-impulsa-estado">anunciaba el lanzamiento de ALIA<&sol;a> y todo parecía sonar bien&period; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;pedro-sanchez-anuncia-creacion-gran-modelo-lenguaje-inteligencia-artificial-entrenado-espanol&num;comments">Ya había avisado casi un año antes<&sol;a> de esta <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;espana-ha-aprobado-su-estrategia-inteligencia-artificial-2024-tiene-tres-ejes-enfoque-responsable" data-vars-post-title&equals;'España ha aprobado su Estrategia de Inteligencia Artificial 2024&period; Tiene tres ejes y un enfoque "responsable" ' data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;espana-ha-aprobado-su-estrategia-inteligencia-artificial-2024-tiene-tres-ejes-enfoque-responsable">iniciativa<&sol;a>&comma; aunque entonces apenas dio detalles&period; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;planderecuperacion&period;gob&period;es&sol;noticias&sol;Pedro-Sanchez-clausura-acto-HispanI-como-inteligencia-artificial-mejorara-nuestro-futuro-ia-prtr">Se habló<&sol;a> de la familia de modelos de IA en castellano y lenguas cooficiales &&num;8220&semi;pensados para fomentar la investigación en este campo y desarrollar soluciones tecnológicas en castellano&comma; el cuarto idioma más hablado del mundo y el segundo más usado en Internet&&num;8221&semi;&period; <&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;ia-nacional-que-simplifique-tramites-burocraticos-excelente-idea-problema-espana-puede-implementarla" class&equals;"pivot-outboundlink" data-vars-post-title&equals;'Una IA "nacional" que simplifique los trámites burocráticos es una excelente idea&period; El problema es si España puede implementarla '><br &sol;>&NewLine; <img alt&equals;'Una IA "nacional" que simplifique los trámites burocráticos es una excelente idea&period; El problema es si España puede implementarla ' width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;e2649a&sol;alia&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;ia-nacional-que-simplifique-tramites-burocraticos-excelente-idea-problema-espana-puede-implementarla" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;'Una IA "nacional" que simplifique los trámites burocráticos es una excelente idea&period; El problema es si España puede implementarla '>En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;ia-nacional-que-simplifique-tramites-burocraticos-excelente-idea-problema-espana-puede-implementarla" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;'Una IA "nacional" que simplifique los trámites burocráticos es una excelente idea&period; El problema es si España puede implementarla '>Una IA &&num;8220&semi;nacional&&num;8221&semi; que simplifique los trámites burocráticos es una excelente idea&period; El problema es si España puede implementarla <&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>Incluso se mencionó que ya estaban en marcha proyectos para aplicar ALIA en dos proyectos piloto para la Agencia Tributaria y para una aplicación en la medicina de atención primaria&period; En la web del BSC-CNS <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;bsc&period;es&sol;es&sol;noticias&sol;noticias-del-bsc&sol;alia-la-primera-infraestructura-p&percnt;C3&percnt;BAblica-abierta-y-multiling&percnt;C3&percnt;BCe-de-ia-en-europa">se aportaron<&sol;a> algunos detalles técnicos&colon; ALIA-40b era&comma; según los responsables de dicho organismo&colon;<&sol;p>&NewLine;<p><&excl;-- BREAK 4 --><&sol;p>&NewLine;<p>&&num;8220&semi;El modelo fundacional multilingüe público más avanzado de Europa con 40&period;000 millones de parámetros&comma; que ha sido entrenado durante más de 8 meses en el MareNostrum 5 con 6&comma;9 billones de tokens &lpar;palabras o fragmentos de palabras usadas en estos sistemas&rpar; en 35 lenguas europeas&period; Su versión final estará entrenada con hasta 9&comma;2 billones de tokens&&num;8221&semi;&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 5 --><&sol;p>&NewLine;<p>La realidad <strong>era algo distinta<&sol;strong>&period; De hecho&comma; ALIA-40b fue criticado entre quienes lo probaron&period; Las pruebas de rendimiento iniciales ya mostraron cómo el rendimiento era muy pobre y <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;x&period;com&sol;javilop&sol;status&sol;1881648316456345661">comparable al de Llama-2-34b<&sol;a>&comma; un modelo Open Source que se lanzó a mediados de 2023&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 6 --><&sol;p>&NewLine;<div class&equals;"article-asset-image article-asset-normal article-asset-center">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"caption-img ">&NewLine;<p> <img alt&equals;"Captura De Pantalla 2025 09 17 A Las 10 23 52" class&equals;"centro&lowbar;sinmarco" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;5ade6c&sol;captura-de-pantalla-2025-09-17-a-las-10&period;23&period;52&sol;450&lowbar;1000&period;jpeg"><&sol;p>&NewLine;<p> <span>En el estudio de la UPV se puede ver como ALIA-40b&comma; Salamandra-2b y Salamandra-7b fueron de lejos los peores en las pruebas realizadas&period;<&sol;span>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>Un <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;sciencedirect&period;com&sol;science&sol;article&sol;pii&sol;S2590123025004475">estudio posterior<&sol;a> de investigadores de la Universidad de Valencia puso a prueba esa capacidad y sus conclusiones fueron claras&period; En exámenes de matemáticas tipo test puntuó peor que el resto de LLMs&comma; e incluso puntuó peor que si hubiera tratado de adivinar las respuestas&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 7 --><&sol;p>&NewLine;<p>El mensaje fue claro&colon; ALIA estaba muy por detrás de sus competidores&period; El modelo ni siquiera forma parte de grandes comparativas de rendimiento como las de <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;llm-stats&period;com&sol;">LLM-Stats<&sol;a>&comma; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;artificialanalysis&period;ai&sol;leaderboards&sol;models">Artificial Analysis<&sol;a> y sobre todo <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;lmarena&period;ai&sol;leaderboard">LMArena<&sol;a> que entre sus 176 modelos no incluye el modelo español&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 8 --><&sol;p>&NewLine;<h2>Un lanzamiento prematuro<&sol;h2>&NewLine;<p>Hay una razón sencilla para ese comportamiento&colon; ALIA ni siquiera estaba preparado para esas pruebas&comma; y no lo estaba porque se lanzó de forma prematura&period; Nos lo explica <strong>Aitor González-Agirre<&sol;strong>&comma; uno de los responsables del desarrollo de ALIA en en BSC&period;<&sol;p>&NewLine;<div class&equals;"article-asset-image article-asset-small article-asset-left">&NewLine;<div class&equals;"asset-content">&NewLine;<p> <img alt&equals;"Aitor" class&equals;"izquierda&lowbar;sinmarco" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;1afb7e&sol;aitor&sol;450&lowbar;1000&period;png"><&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>Él destaca que aquel lanzamiento &&num;8220&semi;no fue una decisión técnica&&num;8221&semi;&period; A la hora de entrenar ALIA el equipo se encontró con un problema clásico&colon; tuvieron que interrumpir un proceso diseñado para ser largo mucho antes de tiempo&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 9 --><&sol;p>&NewLine;<p>En el entrenamiento de modelos de IA hay un concepto llamado tasa de aprendizaje que indica la &&num;8220&semi;velocidad&&num;8221&semi; a la que el modelo aprende&period; Al principio quieres una tasa alta para aprender &&num;8220&semi;rápido&&num;8221&semi; y absorber conceptos generales&comma; pero al final quieres una tasa muy baja que permita pulir detalles finos y asentar ese conocimiento sin romper lo aprendido&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 10 --><&sol;p>&NewLine;<p>Para realizar ese entrenamiento se utiliza un planificador &lpar;<em>scheduler<&sol;em>&rpar; que le dice a la máquina —en este caso&comma; MareNostrum 5— cómo ir cambiando esa velocidad a lo largo del tiempo&comma; y aquí se usó un scheduler basado en coseno&colon; empieza en un pico alto&comma; baja suavemente al principio&comma; pero luego baja más rápidamente en el medio para aterrizar muy suavamente al final&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 11 --><&sol;p>&NewLine;<p>González-Agirre indica que con ALIA tenían la intención de entrenar &&num;8220&semi;con 12 billones de tokens &lpar;12T&rpar;&&num;8221&semi;&comma; pero la realidad es que por decisiones estratégicas pero no técnicas tuvieron que parar&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 12 --><&sol;p>&NewLine;<p>&&num;8220&semi;Sabíamos que no se iba a poder hacer&&num;8221&semi;&comma; añade&period; Aunque tuvieron acceso a MareNostrum 5 para hacer pruebas iniciales&comma; <strong>tuvieron que lanzar el modelo cuando solo llevaban 2&comma;3 billones de tokens<&sol;strong>&period; El scheduler aun estaba en fase de velocidad alta&comma; no había llegado a esa fase final de refinamiento&comma; y básicamente el modelo no estaba básicamente &&num;8220&semi;crudo&&num;8221&semi;&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 13 --><&sol;p>&NewLine;<div class&equals;"article-asset-image article-asset-normal article-asset-center">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"caption-img ">&NewLine;<p> <img alt&equals;"Captura De Pantalla 2025 11 24 A Las 16 44 14" class&equals;"centro&lowbar;sinmarco" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;6644e5&sol;captura-de-pantalla-2025-11-24-a-las-16&period;44&period;14&sol;450&lowbar;1000&period;jpeg"><&sol;p>&NewLine;<p> <span>La descripción de ALIA-40b en Hugging Face muestra una advertencia clara del estado del modelo&comma; que no cuenta aún con instrucciones ni alineamiento&comma; y que por tanto puede generar salidas inapropiadas&comma; incorrectas o incluso inseguras&period; Sigue siendo un modelo &&num;8220&semi;crudo&&num;8221&semi; en pleno desarrollo&comma; y hay que tomarlo como tal&period;<&sol;span>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>Hubo un problema adicional&comma; indica este experto&period; ALIA-40B &&num;8220&semi;se lanzó como modelo preentrenado&period; No tenía instrucciones ni alineamiento ni nada&period; El modelo no era un producto final&comma; no era ese el objetivo&&num;8221&semi;&period; Para mucha gente ALIA-40b simplemente a esas alturas debía poder contestar a nuestras preguntas de forma más o menos coherente&comma; pero no lo hacía&comma; y ahí entran esas diferencias tan claras de esas &&num;8220&semi;capas&&num;8221&semi; del proceso de desarrollo de un modelo de IA&colon;<&sol;p>&NewLine;<p><&excl;-- BREAK 14 --><&sol;p>&NewLine;<ul>&NewLine;<li value&equals;"1"><strong>Modelo preentrenado &lpar;<&sol;strong><strong><em>pre-trained<&sol;em><&sol;strong><strong>&comma; la base bruta&rpar;<&sol;strong>&colon; sabe predecir qué palabra viene después de otra&comma; pero no sabe charlar ni obedecer&period; No es capaz de saber si le estás haciendo una pregunta&comma; y solo intenta adivinar el texto que viene a continuación&period; Las respuestas&comma; por tanto&comma; pueden ser totalmente incoherentes con lo que nosotros pretendíamos preguntar&period; Es un modelo &&num;8220&semi;crudo&&num;8221&semi;&comma; casi &&num;8220&semi;salvaje&&num;8221&semi;&period; <&sol;li>&NewLine;<li value&equals;"2"><strong>Instrucciones &lpar;<&sol;strong><strong><em>Instruction Tuning<&sol;em><&sol;strong><strong>&rpar;<&sol;strong>&colon; al modelo crudo se le entrena con ejemplos específicos de pregunta-respuesta y se le enseña al modelo a ejecutar ciertas acciones&period; Cuando al modelo preentrenado le dices &&num;8220&semi;La capital de Francia es&&num;8230&semi; &&num;8220&semi;él puede completar con &&num;8220&semi;&&num;8230&semi; una ciudad bonita&&num;8221&semi;&period; Pero el modelo con instrucciones &lpar;a menudo llevan el &&num;8220&semi;apellido&&num;8221&semi; Instruct en su nombre&rpar; le enseñas que debe responder &&num;8220&semi;&&num;8230&semi; París&&num;8221&semi;&period;<&sol;li>&NewLine;<li value&equals;"3"><strong>Alineamiento &lpar;<&sol;strong><strong><em>Alignment<&sol;em><&sol;strong>&rpar;&colon; en esta capa se le añade seguridad y estilo al modelo y a menudo se aplica aprendizaje por refuerzo por retroalimentación humana&period; Aquí el modelo aprende que no debe contestar ciertas preguntas &lpar;de ahí respuestas del tpo &&num;8220&semi;No puedo ayudarte con eso&&num;8221&semi; cuando pedimos a un modelo que nos ayude a crear una bomba&rpar;&comma; y también a no ser grosero o racista&comma; por ejemplo&period;<&sol;li>&NewLine;<&sol;ul>&NewLine;<p>ALIA-40b ni siquiera había completado su fase inicial de entrenamiento cuando se presentó&comma; y eso hizo que aquella versión inicial no estuviese preparada para salir a escena&colon; &&num;8220&semi;solo era un modelo que completaba texto&&num;8221&semi; pero simplemente lo hacía de formas que no eran las que esperábamos&period; Aquel desconocimiento de las condiciones en las que salió provocó cierta decepción&comma; y a esa sensación se unió otro fenómeno&colon; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;chatbot-deepseek-no-imparable-china-sus-descargas-han-caido-72-rival-empieza-a-ocupar-su-lugar" data-vars-post-title&equals;'DeepSeek causó un auténtico terremoto en la IA&period; Ahora está siendo víctima de su propio "momento DeepSeek" en China' data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;chatbot-deepseek-no-imparable-china-sus-descargas-han-caido-72-rival-empieza-a-ocupar-su-lugar">el provocado por DeepSeek<&sol;a>&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 15 --><&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;espana-quiere-su-propio-hugging-face-publico-problema-que-llega-tarde-a-batalla-que-tiene-ganadores" class&equals;"pivot-outboundlink" data-vars-post-title&equals;"España quiere su Hugging Face&period; Llega justo cuando la fiesta ya casi ha terminado"><br &sol;>&NewLine; <img alt&equals;"España quiere su Hugging Face&period; Llega justo cuando la fiesta ya casi ha terminado" width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;02858f&sol;imagen&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;espana-quiere-su-propio-hugging-face-publico-problema-que-llega-tarde-a-batalla-que-tiene-ganadores" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;"España quiere su Hugging Face&period; Llega justo cuando la fiesta ya casi ha terminado">En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;espana-quiere-su-propio-hugging-face-publico-problema-que-llega-tarde-a-batalla-que-tiene-ganadores" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;"España quiere su Hugging Face&period; Llega justo cuando la fiesta ya casi ha terminado">España quiere su Hugging Face&period; Llega justo cuando la fiesta ya casi ha terminado<&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>Meses después esa fase inicial sí está completada&comma; y González-Agirre indica que el comportamiento actual del modelo es mucho mejor&period; Al compararlo con el modelo suizo Apertus-8b&comma; y con variantes de Qwen y Llama-3 afirma que &&num;8220&semi;es el mejor de los modelos en euskera&comma; y el segundo en catalán y gallego&&num;8221&semi;&period; De hecho la ventana de contexto del modelo actual se ha ampliado a 160K tokens &lpar;160&period;000&rpar;&comma; cuando inicialmente se le criticó mucho que fuera de tan solo 4K&comma; pero como dice este ingeniero &&num;8220&semi;no se podía entrenar para más&&num;8221&semi; en aquel momento&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 16 --><&sol;p>&NewLine;<h2>Un camino plagado de obstáculos<&sol;h2>&NewLine;<p>A partir de aquí el camino se allana un poco&comma; y según este experto para final de año quieren &&num;8220&semi;tener un modelo que tenga instrucciones y que responda como nosotros queremos&&num;8221&semi;&comma; pero aquí se enfrentan a obstáculos importantes&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 17 --><&sol;p>&NewLine;<div class&equals;"article-asset-video article-asset-normal">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"base-asset-video">&NewLine;<div class&equals;"js-dailymotion"><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>Probablemente uno de los más importantes está en el conjunto de datos al que pueden acceder para entrenar el modelo&period; Aquí González-Agirre explica la dicotomía&colon;<&sol;p>&NewLine;<p><&excl;-- BREAK 18 --><&sol;p>&NewLine;<blockquote><p>&&num;8220&semi;Hay muchas cosas que mejorar&comma; pero también muchas restricciones de conjuntos de datos &lpar;datasets&rpar; que tenemos que respetar&period; <strong>Si eres una tecnológica con más abogados que Disney puedes hacer otras cosas<&sol;strong>&comma; pero nosotros no usamos datos con copyright y tampoco usamos datos generados por Llama o GPT o por modelos que no permiten usar sus salidas&&num;8221&semi;&period;<&sol;p><&sol;blockquote>&NewLine;<p>De hecho&comma; entre los conjuntos de datos utilizados para entrenar ALIA estaba <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;commoncrawl&period;org&sol;">Common Crawl<&sol;a>&comma; un repositorio en el que hay todo tipo de contenidos de internet que se usan sin pagar licencias&period; Fuentes citadas <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;elpais&period;com&sol;tecnologia&sol;2025-09-17&sol;la-ia-espanola-se-entreno-con-obras-obtenidas-sin-el-permiso-de-sus-autores&period;html">en El País<&sol;a> indicaron recientemente que ese entrenamiento se amparó en la normativa vigente y &&num;8220&semi;en una serie de excepciones para hacer minería de datos&&num;8221&semi;&period; Los autores pueden prohibir que se usen sus obras&comma; pero deben seguir &&num;8220&semi;un complejo proceso&&num;8221&semi; para evitarlo&period; <&sol;p>&NewLine;<p>En el desarrollo de ALIA tienen muy en cuenta esos requisitos y de hecho tienen que regenerar esos conjuntos de datos para evitar que se incumplan cualquiera de los términos especificados&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 19 --><&sol;p>&NewLine;<p>El mundo ya ha asumido que los modelos de IA <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;precio-a-pagar-tener-ia-saqueo-todo-contenido-internet-perplexity-solo-ultimo-ejemplo" data-vars-post-title&equals;"El precio a pagar por tener IA es el saqueo de todo el contenido de Internet&period; Y Perplexity es solo el último ejemplo " data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;precio-a-pagar-tener-ia-saqueo-todo-contenido-internet-perplexity-solo-ultimo-ejemplo">han saqueado internet para su entrenamiento<&sol;a>&comma; y casi siempre <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;legislacion-y-derechos&sol;todas-grandes-ia-han-ignorado-leyes-copyright-alucinante-que-sigue-haber-consecuencias" data-vars-post-title&equals;"Todas las grandes IA han ignorado las leyes del copyright&period; Lo alucinante es que sigue sin haber consecuencias " data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;legislacion-y-derechos&sol;todas-grandes-ia-han-ignorado-leyes-copyright-alucinante-que-sigue-haber-consecuencias">sin pedir permiso o sin pagar<&sol;a> por los contenidos con los que se han entrenado&period; Eso ha dado lugar a un sinfín de demandas&comma; y también ha hecho que algunas empresas de IA lleguen a acuerdos extrajudiciales con los poseedores de esos derechos&period; Es lo que pasó hace unos meses con Anthropic&comma; que <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;arstechnica&period;com&sol;tech-policy&sol;2025&sol;09&sol;first-of-its-kind-ai-settlement-anthropic-to-pay-authors-1-5-billion&sol;">firmó uno de esos acuerdos<&sol;a> con un grupo de autores&comma; a los que pagará unos 1&period;500 millones de dólares&period; Otras han seguido ese camino&comma; pero no desde luego el desarrollo del BSC-CNS&comma; que se enfrentó a otra dificultad&colon; la capacidad de cómputo disponible&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 20 --><&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;empresas-y-economia&sol;europa-tenemos-problema-estamos-siendo-japon-siglo-xxi" class&equals;"pivot-outboundlink" data-vars-post-title&equals;"En Europa tenemos un problema&colon; nos estamos convirtiendo en la Japón del siglo XXI"><br &sol;>&NewLine; <img alt&equals;"En Europa tenemos un problema&colon; nos estamos convirtiendo en la Japón del siglo XXI" width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;bff7f3&sol;europa-japon&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;empresas-y-economia&sol;europa-tenemos-problema-estamos-siendo-japon-siglo-xxi" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;"En Europa tenemos un problema&colon; nos estamos convirtiendo en la Japón del siglo XXI">En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;empresas-y-economia&sol;europa-tenemos-problema-estamos-siendo-japon-siglo-xxi" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;"En Europa tenemos un problema&colon; nos estamos convirtiendo en la Japón del siglo XXI">En Europa tenemos un problema&colon; nos estamos convirtiendo en la Japón del siglo XXI<&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>Dicho acceso se ha ido reduciendo de forma notable con el tiempo&period; Marta Villegas&comma; del equipo de desarrollo de ALIA&comma; ya nos habló de ello <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;asi-alia-modelo-ia-espanola-que-puede-quiere-competir-chatgpt" data-vars-post-title&equals;'"El objetivo no es competir con ChatGPT"&colon; hablamos con los creadores de ALIA&comma; la IA 100&percnt; española&comma; para entender su futuro' data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;asi-alia-modelo-ia-espanola-que-puede-quiere-competir-chatgpt">en nuestra entrevista en enero<&sol;a>&period; Aunque durante un breve espacio de tiempo tuvieron acceso a 512 de los 1&period;120 nodos especializados del supercomputador&comma; se usaron 256 nodos durante bastantes meses y desde septiembre están usando 128 nodos&comma; &&num;8220&semi;que son muchos&&num;8221&semi;&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 21 --><&sol;p>&NewLine;<p>Esa cifra ahora se ha reducido a 16 nodos dedicados&comma; lo que impide hacer pretraining&period; Aun así&comma; explica&comma; &&num;8220&semi;también es cierto que en estos momentos estamos trabajando en una parte menos intensiva&&num;8221&semi;&comma; pero esa limitación inicial también hacía imposible compararse con otros gigantes&colon; &&num;8220&semi;Con ChatGPT hicieron centenares de versiones distintas y se quedaron con la buena&&num;8221&semi;&comma; pero ALIA solo se pudo entrenar una vez&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 22 --><&sol;p>&NewLine;<p>Hay otro problemón importante para que ALIA pueda avanzar&comma; y es que como explica González-Agirre&comma; <strong>&&num;8220&semi;no tenemos inferencia&&num;8221&semi;<&sol;strong>&period; Es decir&comma; no hay una app o un sitio web o plataforma tipo chat&period;alia&period;es que permita probar el modelo de IA en directo&comma; como ocurre con ChatGPT&comma; Gemini&comma; Claude o cualquiera de sus competidores&comma; incluso de modelos &lpar;relativamente&rpar; abiertos <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;chat&period;mistral&period;ai&sol;chat">como Mistral<&sol;a>&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 23 --><&sol;p>&NewLine;<h2>&&num;8220&semi;Quien no tenga coche&comma; que al menos pueda ir en autobús&&num;8221&semi;<&sol;h2>&NewLine;<p>Ese es otro obstáculo más porque&comma; destaca nuestro protagonista&comma; &&num;8220&semi;no tenemos datos de los prompts que está usando la gente&comma; de cómo usa el modelo&comma; de esos pulgares hacia arriba y hacia abajo&&num;8221&semi;&period;<&sol;p>&NewLine;<div class&equals;"article-asset-image article-asset-normal article-asset-center">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"caption-img ">&NewLine; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;huggingface&period;co&sol;BSC-LT&sol;models"><&sol;p>&NewLine;<p> <img alt&equals;"Captura De Pantalla 2025 11 26 A Las 16 38 56" class&equals;"centro&lowbar;sinmarco" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;399fdb&sol;captura-de-pantalla-2025-11-26-a-las-16&period;38&period;56&sol;450&lowbar;1000&period;jpeg"><br &sol;>&NewLine; <&sol;a><&sol;p>&NewLine;<p> <span>En Hugging Face se puede consultar cómo las actualizaciones son frecuentes en este proyecto&colon; aparecen nuevos modelos cada pocas semanas&&num;8230&semi; o días&period;<&sol;span>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>Esa infrmación le da muchas pistas a las grandes tecnológicas de si sus modelos están cumpliendo con las expectativas de los usuarios o no&period; Aquí añadía además algo importante&colon;<&sol;p>&NewLine;<p><&excl;-- BREAK 24 --><&sol;p>&NewLine;<blockquote><p>&&num;8220&semi;Hay opciones de tener inferencia y centros de datos&period; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;ordenadores&sol;europa-iba-a-remolque-supercomputadores-ahora-tiene-dos-cinco-potentes-mundo" data-vars-post-title&equals;"Europa iba a remolque en supercomputadores&period; Ahora ya tiene dos de los cinco más potentes del mundo " data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;ordenadores&sol;europa-iba-a-remolque-supercomputadores-ahora-tiene-dos-cinco-potentes-mundo">Están Jupiter&comma; Leonardo o Lumi&comma; por ejemplo<&sol;a>&comma; pero falta voluntad política&period; Esto es una alternativa pública&comma; la necesitamos y no podemos dejar algo así en manos privadas&&num;8221&semi;&period; <&sol;p><&sol;blockquote>&NewLine;<p>Para él que existan modelos comerciales y cerrados es normal y totalmente respetable&comma; pero la analogía en su opinión es clara&period; Esto es como los coches privados y los autobuses&colon; <strong>&&num;8220&semi;quien no tenga coche&comma; que al menos pueda ir en autobús&&num;8221&semi;<&sol;strong>&period; Esa es sin duda la razón de ser de un modelo que no pretende competir con ChatGPT o Gemini&period; González-Agirre señala que <&sol;p>&NewLine;<blockquote><p>&&num;8220&semi;Lo que pretendemos es que sea bueno en los idiomas cooficiales&comma; que sea mejor que otros modelos&comma; y lo siguiente es que esté alineado con nuestros valores y cultura&period; Que no sea un modelo de otro idioma hablando español&period; Que no pase como en los modelos chinos&comma; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;china-iba-a-zaga-ia-no-para-lanzar-modelos-cada-vez-avanzados-muy-socialistas" data-vars-post-title&equals;"China iba a la zaga en IA&comma; pero no para de lanzar modelos cada vez más avanzados&period; Y muy socialistas" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;china-iba-a-zaga-ia-no-para-lanzar-modelos-cada-vez-avanzados-muy-socialistas">que no pueden contestar algunas cosas<&sol;a>&period; Que podamos defender que no tiene sesgos  ni de género&comma; ni de raza&comma; ni de edad&comma; y que haya trazabilidad y transparencia completa&&num;8221&semi;&period;<&sol;p><&sol;blockquote>&NewLine;<p>Y aquí también destaca que en su equipo y en España &&num;8220&semi;hay gente muy&comma; muy buena&comma; y que aprende mucho&comma; pero me gustaría que esta gente tuviera recursos para quedarse aquí y contribuyese al tejido de España y Europa&&num;8221&semi;&period; <&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;legislacion-y-derechos&sol;espana-no-absoluto-puntera-ia-tenemos-agencia-regulatoria-80-empleados-no-sabemos-muy-bien-que-van-a-regular" class&equals;"pivot-outboundlink" data-vars-post-title&equals;"España no es en absoluto puntera en IA&comma; pero ya tenemos una agencia regulatoria con 80 empleados&period; No sabemos muy bien qué van a regular "><br &sol;>&NewLine; <img alt&equals;"España no es en absoluto puntera en IA&comma; pero ya tenemos una agencia regulatoria con 80 empleados&period; No sabemos muy bien qué van a regular " width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;7d0838&sol;aesia3&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;legislacion-y-derechos&sol;espana-no-absoluto-puntera-ia-tenemos-agencia-regulatoria-80-empleados-no-sabemos-muy-bien-que-van-a-regular" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;"España no es en absoluto puntera en IA&comma; pero ya tenemos una agencia regulatoria con 80 empleados&period; No sabemos muy bien qué van a regular ">En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;legislacion-y-derechos&sol;espana-no-absoluto-puntera-ia-tenemos-agencia-regulatoria-80-empleados-no-sabemos-muy-bien-que-van-a-regular" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;"España no es en absoluto puntera en IA&comma; pero ya tenemos una agencia regulatoria con 80 empleados&period; No sabemos muy bien qué van a regular ">España no es en absoluto puntera en IA&comma; pero ya tenemos una agencia regulatoria con 80 empleados&period; No sabemos muy bien qué van a regular <&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>ALIA se enfrenta también a una competencia feroz por parte de los modelos &lpar;más o menos&rpar; abiertos que llegan de China&comma; y aunque González-Agirre admite que &&num;8220&semi;tienen unos modelos muy buenos y eficientes&comma; pero no tan baratos como ellos dicen&&num;8221&semi;&comma; añade que &&num;8220&semi;prefiero usar un modelo soberano que sé cómo está hecho&&num;8221&semi;&period; En ALIA la transparencia es completa&comma; y además hacen uso de una licencia Apache que precisamente defiende ese enfoque abierto&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 25 --><&sol;p>&NewLine;<p>El futuro inmediato de estos modelos es prometedor&period; &&num;8220&semi;A finales de año tendremos versiones muy usables del modelo con un rendimiento parecido a modelos de su tamaño&&num;8221&semi;&comma; pero tendrán que trabajar también con su equipo Red Team —que intenta hacer &&num;8220&semi;jailbreak&&num;8221&semi; de ALIA para evitar que genere cosas que no debe&period; <&sol;p>&NewLine;<p><&excl;-- BREAK 26 --><&sol;p>&NewLine;<div class&equals;"article-asset-video article-asset-normal">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"base-asset-video">&NewLine;<div class&equals;"js-dailymotion"><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>A partir de ahí&comma; el objetivo es el de lograr versiones de ALIA que tengan capacidades de razonamiento&comma; agénticas y que también sea capaz de realizar llamadas a herramientas&comma; como algunos de sus competidores comerciales&period; El camino será probablemente mucho más difícil que el de las grandes empresas que no paran de lanzar novedades <strong>sin pedir ni permiso ni perdón<&sol;strong>&comma; pero el resultado&comma; esperemos&comma; valdrá la pena&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 27 --><&sol;p>&NewLine;<p>En Xataka &vert; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;espana-e-ibm-se-alian-para-crear-chatbots-que-hablen-gallego-euskera-catalan-hay-monton-incognitas" data-vars-post-title&equals;"España ha firmado un acuerdo con IBM para chatbots de IA en euskera&comma; gallego y catalán&period; El problema es que ya existen" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;espana-e-ibm-se-alian-para-crear-chatbots-que-hablen-gallego-euskera-catalan-hay-monton-incognitas">España ha firmado un acuerdo con IBM para chatbots de IA en euskera&comma; gallego y catalán&period; El problema es que ya existen<&sol;a><&sol;p>&NewLine;<p> &&num;8211&semi; <br &sol;> La noticia<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;arranque-alia-modelo-ia-espanol-ha-sido-erratico-decepcionante-ahora-sabemos-que&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;28&lowbar;Dec&lowbar;2025"><br &sol;>&NewLine; <em> El arranque de ALIA&comma; el modelo de IA español&comma; ha sido errático y decepcionante&period; Ahora sabemos por qué <&sol;em><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; fue publicada originalmente en<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;28&lowbar;Dec&lowbar;2025"><br &sol;>&NewLine; <strong> Xataka <&sol;strong><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; por <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;autor&sol;javier-pastor&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;28&lowbar;Dec&lowbar;2025"><br &sol;>&NewLine; Javier Pastor<br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; &period; <&sol;p>&NewLine;<p>&ZeroWidthSpace;Empecemos por lo importante&period; ALIA&comma; el modelo de IA español&comma; no tenía que haberse lanzado cuando se lanzó&period; <&sol;p>&NewLine;<p>En Xataka hemos hablado con uno de los principales responsables de su desarrollo y eso nos ha permitido conocer y entender mucho mejor su alcance y sus objetivos&comma; pero también por qué la &lpar;inevitable&rpar; comparación con ChatGPT no solo es injusta&colon; es inapropiada&period;<&sol;p>&NewLine;<p>ALIA-40b es un modelo fundacional de IA&comma; esto es&comma; un modelo de inteligencia artificial de gran escala entrenado con una cantidad masiva y diversa de datos&comma; y que sirve como base para multitud de aplicaciones distintas&period; Este proyecto está coordinado por el Barcelona Supercomputing Center &lpar;BSC-CNS&rpar;&comma; y aunque se ha podido beneficiar de la infraestructura del supercomputador MareNostrum 5&comma; incluso esa ventaja ha sido limitada&period; <&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> &&num;8220&semi;El objetivo no es competir con ChatGPT&&num;8221&semi;&colon; hablamos con los creadores de ALIA&comma; la IA 100&percnt; española&comma; para entender su futuro<&sol;p>&NewLine;<p>Como decimos&comma; comparar el rendimiento de ALIA-40b con el de modelos como GPT-5 o Gemini 3 es inapropiado&comma; y para entenderlo todo mejor hay que entender de dónde parte el proyecto&comma; qué objetivos tiene y cómo su desarrollo es mucho más modesto —y aun así prometedor— que el de los grandes modelos propietarios de EEUU y también el de los llamativos modelos abiertos que están apareciendo en China&period; Conozcamos más de cerca qué pasó con ALIA&&num;8230&semi; y qué esperamos que pase&period;<&sol;p>&NewLine;<p>Promesas y realidadesAquel 20 de enero de 2025&comma; Pedro Sánchez&comma; presidente del Gobierno de España&comma; anunciaba el lanzamiento de ALIA y todo parecía sonar bien&period; Ya había avisado casi un año antes de esta iniciativa&comma; aunque entonces apenas dio detalles&period; Se habló de la familia de modelos de IA en castellano y lenguas cooficiales &&num;8220&semi;pensados para fomentar la investigación en este campo y desarrollar soluciones tecnológicas en castellano&comma; el cuarto idioma más hablado del mundo y el segundo más usado en Internet&&num;8221&semi;&period; <&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> Una IA &&num;8220&semi;nacional&&num;8221&semi; que simplifique los trámites burocráticos es una excelente idea&period; El problema es si España puede implementarla <&sol;p>&NewLine;<p>Incluso se mencionó que ya estaban en marcha proyectos para aplicar ALIA en dos proyectos piloto para la Agencia Tributaria y para una aplicación en la medicina de atención primaria&period; En la web del BSC-CNS se aportaron algunos detalles técnicos&colon; ALIA-40b era&comma; según los responsables de dicho organismo&colon;<&sol;p>&NewLine;<p>&&num;8220&semi;El modelo fundacional multilingüe público más avanzado de Europa con 40&period;000 millones de parámetros&comma; que ha sido entrenado durante más de 8 meses en el MareNostrum 5 con 6&comma;9 billones de tokens &lpar;palabras o fragmentos de palabras usadas en estos sistemas&rpar; en 35 lenguas europeas&period; Su versión final estará entrenada con hasta 9&comma;2 billones de tokens&&num;8221&semi;&period;<&sol;p>&NewLine;<p>La realidad era algo distinta&period; De hecho&comma; ALIA-40b fue criticado entre quienes lo probaron&period; Las pruebas de rendimiento iniciales ya mostraron cómo el rendimiento era muy pobre y comparable al de Llama-2-34b&comma; un modelo Open Source que se lanzó a mediados de 2023&period; <&sol;p>&NewLine;<p> En el estudio de la UPV se puede ver como ALIA-40b&comma; Salamandra-2b y Salamandra-7b fueron de lejos los peores en las pruebas realizadas&period;<&sol;p>&NewLine;<p>Un estudio posterior de investigadores de la Universidad de Valencia puso a prueba esa capacidad y sus conclusiones fueron claras&period; En exámenes de matemáticas tipo test puntuó peor que el resto de LLMs&comma; e incluso puntuó peor que si hubiera tratado de adivinar las respuestas&period; <&sol;p>&NewLine;<p>El mensaje fue claro&colon; ALIA estaba muy por detrás de sus competidores&period; El modelo ni siquiera forma parte de grandes comparativas de rendimiento como las de LLM-Stats&comma; Artificial Analysis y sobre todo LMArena que entre sus 176 modelos no incluye el modelo español&period;<&sol;p>&NewLine;<p>Un lanzamiento prematuroHay una razón sencilla para ese comportamiento&colon; ALIA ni siquiera estaba preparado para esas pruebas&comma; y no lo estaba porque se lanzó de forma prematura&period; Nos lo explica Aitor González-Agirre&comma; uno de los responsables del desarrollo de ALIA en en BSC&period;<&sol;p>&NewLine;<p>Él destaca que aquel lanzamiento &&num;8220&semi;no fue una decisión técnica&&num;8221&semi;&period; A la hora de entrenar ALIA el equipo se encontró con un problema clásico&colon; tuvieron que interrumpir un proceso diseñado para ser largo mucho antes de tiempo&period; <&sol;p>&NewLine;<p>En el entrenamiento de modelos de IA hay un concepto llamado tasa de aprendizaje que indica la &&num;8220&semi;velocidad&&num;8221&semi; a la que el modelo aprende&period; Al principio quieres una tasa alta para aprender &&num;8220&semi;rápido&&num;8221&semi; y absorber conceptos generales&comma; pero al final quieres una tasa muy baja que permita pulir detalles finos y asentar ese conocimiento sin romper lo aprendido&period; <&sol;p>&NewLine;<p>Para realizar ese entrenamiento se utiliza un planificador &lpar;scheduler&rpar; que le dice a la máquina —en este caso&comma; MareNostrum 5— cómo ir cambiando esa velocidad a lo largo del tiempo&comma; y aquí se usó un scheduler basado en coseno&colon; empieza en un pico alto&comma; baja suavemente al principio&comma; pero luego baja más rápidamente en el medio para aterrizar muy suavamente al final&period; <&sol;p>&NewLine;<p>González-Agirre indica que con ALIA tenían la intención de entrenar &&num;8220&semi;con 12 billones de tokens &lpar;12T&rpar;&&num;8221&semi;&comma; pero la realidad es que por decisiones estratégicas pero no técnicas tuvieron que parar&period; <&sol;p>&NewLine;<p>&&num;8220&semi;Sabíamos que no se iba a poder hacer&&num;8221&semi;&comma; añade&period; Aunque tuvieron acceso a MareNostrum 5 para hacer pruebas iniciales&comma; tuvieron que lanzar el modelo cuando solo llevaban 2&comma;3 billones de tokens&period; El scheduler aun estaba en fase de velocidad alta&comma; no había llegado a esa fase final de refinamiento&comma; y básicamente el modelo no estaba básicamente &&num;8220&semi;crudo&&num;8221&semi;&period;<&sol;p>&NewLine;<p> La descripción de ALIA-40b en Hugging Face muestra una advertencia clara del estado del modelo&comma; que no cuenta aún con instrucciones ni alineamiento&comma; y que por tanto puede generar salidas inapropiadas&comma; incorrectas o incluso inseguras&period; Sigue siendo un modelo &&num;8220&semi;crudo&&num;8221&semi; en pleno desarrollo&comma; y hay que tomarlo como tal&period;<&sol;p>&NewLine;<p>Hubo un problema adicional&comma; indica este experto&period; ALIA-40B &&num;8220&semi;se lanzó como modelo preentrenado&period; No tenía instrucciones ni alineamiento ni nada&period; El modelo no era un producto final&comma; no era ese el objetivo&&num;8221&semi;&period; Para mucha gente ALIA-40b simplemente a esas alturas debía poder contestar a nuestras preguntas de forma más o menos coherente&comma; pero no lo hacía&comma; y ahí entran esas diferencias tan claras de esas &&num;8220&semi;capas&&num;8221&semi; del proceso de desarrollo de un modelo de IA&colon;<br &sol;>&NewLine;Modelo preentrenado &lpar;pre-trained&comma; la base bruta&rpar;&colon; sabe predecir qué palabra viene después de otra&comma; pero no sabe charlar ni obedecer&period; No es capaz de saber si le estás haciendo una pregunta&comma; y solo intenta adivinar el texto que viene a continuación&period; Las respuestas&comma; por tanto&comma; pueden ser totalmente incoherentes con lo que nosotros pretendíamos preguntar&period; Es un modelo &&num;8220&semi;crudo&&num;8221&semi;&comma; casi &&num;8220&semi;salvaje&&num;8221&semi;&period; Instrucciones &lpar;Instruction Tuning&rpar;&colon; al modelo crudo se le entrena con ejemplos específicos de pregunta-respuesta y se le enseña al modelo a ejecutar ciertas acciones&period; Cuando al modelo preentrenado le dices &&num;8220&semi;La capital de Francia es&&num;8230&semi; &&num;8220&semi;él puede completar con &&num;8220&semi;&&num;8230&semi; una ciudad bonita&&num;8221&semi;&period; Pero el modelo con instrucciones &lpar;a menudo llevan el &&num;8220&semi;apellido&&num;8221&semi; Instruct en su nombre&rpar; le enseñas que debe responder &&num;8220&semi;&&num;8230&semi; París&&num;8221&semi;&period;Alineamiento &lpar;Alignment&rpar;&colon; en esta capa se le añade seguridad y estilo al modelo y a menudo se aplica aprendizaje por refuerzo por retroalimentación humana&period; Aquí el modelo aprende que no debe contestar ciertas preguntas &lpar;de ahí respuestas del tpo &&num;8220&semi;No puedo ayudarte con eso&&num;8221&semi; cuando pedimos a un modelo que nos ayude a crear una bomba&rpar;&comma; y también a no ser grosero o racista&comma; por ejemplo&period;<br &sol;>&NewLine;ALIA-40b ni siquiera había completado su fase inicial de entrenamiento cuando se presentó&comma; y eso hizo que aquella versión inicial no estuviese preparada para salir a escena&colon; &&num;8220&semi;solo era un modelo que completaba texto&&num;8221&semi; pero simplemente lo hacía de formas que no eran las que esperábamos&period; Aquel desconocimiento de las condiciones en las que salió provocó cierta decepción&comma; y a esa sensación se unió otro fenómeno&colon; el provocado por DeepSeek&period;<&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> España quiere su Hugging Face&period; Llega justo cuando la fiesta ya casi ha terminado<&sol;p>&NewLine;<p>Meses después esa fase inicial sí está completada&comma; y González-Agirre indica que el comportamiento actual del modelo es mucho mejor&period; Al compararlo con el modelo suizo Apertus-8b&comma; y con variantes de Qwen y Llama-3 afirma que &&num;8220&semi;es el mejor de los modelos en euskera&comma; y el segundo en catalán y gallego&&num;8221&semi;&period; De hecho la ventana de contexto del modelo actual se ha ampliado a 160K tokens &lpar;160&period;000&rpar;&comma; cuando inicialmente se le criticó mucho que fuera de tan solo 4K&comma; pero como dice este ingeniero &&num;8220&semi;no se podía entrenar para más&&num;8221&semi; en aquel momento&period;<br &sol;>&NewLine;Un camino plagado de obstáculos<br &sol;>&NewLine;A partir de aquí el camino se allana un poco&comma; y según este experto para final de año quieren &&num;8220&semi;tener un modelo que tenga instrucciones y que responda como nosotros queremos&&num;8221&semi;&comma; pero aquí se enfrentan a obstáculos importantes&period;<&sol;p>&NewLine;<p>Probablemente uno de los más importantes está en el conjunto de datos al que pueden acceder para entrenar el modelo&period; Aquí González-Agirre explica la dicotomía&colon;<&sol;p>&NewLine;<p>&&num;8220&semi;Hay muchas cosas que mejorar&comma; pero también muchas restricciones de conjuntos de datos &lpar;datasets&rpar; que tenemos que respetar&period; Si eres una tecnológica con más abogados que Disney puedes hacer otras cosas&comma; pero nosotros no usamos datos con copyright y tampoco usamos datos generados por Llama o GPT o por modelos que no permiten usar sus salidas&&num;8221&semi;&period;De hecho&comma; entre los conjuntos de datos utilizados para entrenar ALIA estaba Common Crawl&comma; un repositorio en el que hay todo tipo de contenidos de internet que se usan sin pagar licencias&period; Fuentes citadas en El País indicaron recientemente que ese entrenamiento se amparó en la normativa vigente y &&num;8220&semi;en una serie de excepciones para hacer minería de datos&&num;8221&semi;&period; Los autores pueden prohibir que se usen sus obras&comma; pero deben seguir &&num;8220&semi;un complejo proceso&&num;8221&semi; para evitarlo&period; <&sol;p>&NewLine;<p>En el desarrollo de ALIA tienen muy en cuenta esos requisitos y de hecho tienen que regenerar esos conjuntos de datos para evitar que se incumplan cualquiera de los términos especificados&period; <&sol;p>&NewLine;<p>El mundo ya ha asumido que los modelos de IA han saqueado internet para su entrenamiento&comma; y casi siempre sin pedir permiso o sin pagar por los contenidos con los que se han entrenado&period; Eso ha dado lugar a un sinfín de demandas&comma; y también ha hecho que algunas empresas de IA lleguen a acuerdos extrajudiciales con los poseedores de esos derechos&period; Es lo que pasó hace unos meses con Anthropic&comma; que firmó uno de esos acuerdos con un grupo de autores&comma; a los que pagará unos 1&period;500 millones de dólares&period; Otras han seguido ese camino&comma; pero no desde luego el desarrollo del BSC-CNS&comma; que se enfrentó a otra dificultad&colon; la capacidad de cómputo disponible&period;<&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> En Europa tenemos un problema&colon; nos estamos convirtiendo en la Japón del siglo XXI<&sol;p>&NewLine;<p>Dicho acceso se ha ido reduciendo de forma notable con el tiempo&period; Marta Villegas&comma; del equipo de desarrollo de ALIA&comma; ya nos habló de ello en nuestra entrevista en enero&period; Aunque durante un breve espacio de tiempo tuvieron acceso a 512 de los 1&period;120 nodos especializados del supercomputador&comma; se usaron 256 nodos durante bastantes meses y desde septiembre están usando 128 nodos&comma; &&num;8220&semi;que son muchos&&num;8221&semi;&period;<&sol;p>&NewLine;<p>Esa cifra ahora se ha reducido a 16 nodos dedicados&comma; lo que impide hacer pretraining&period; Aun así&comma; explica&comma; &&num;8220&semi;también es cierto que en estos momentos estamos trabajando en una parte menos intensiva&&num;8221&semi;&comma; pero esa limitación inicial también hacía imposible compararse con otros gigantes&colon; &&num;8220&semi;Con ChatGPT hicieron centenares de versiones distintas y se quedaron con la buena&&num;8221&semi;&comma; pero ALIA solo se pudo entrenar una vez&period;<&sol;p>&NewLine;<p>Hay otro problemón importante para que ALIA pueda avanzar&comma; y es que como explica González-Agirre&comma; &&num;8220&semi;no tenemos inferencia&&num;8221&semi;&period; Es decir&comma; no hay una app o un sitio web o plataforma tipo chat&period;alia&period;es que permita probar el modelo de IA en directo&comma; como ocurre con ChatGPT&comma; Gemini&comma; Claude o cualquiera de sus competidores&comma; incluso de modelos &lpar;relativamente&rpar; abiertos como Mistral&period;<&sol;p>&NewLine;<p>&&num;8220&semi;Quien no tenga coche&comma; que al menos pueda ir en autobús&&num;8221&semi;Ese es otro obstáculo más porque&comma; destaca nuestro protagonista&comma; &&num;8220&semi;no tenemos datos de los prompts que está usando la gente&comma; de cómo usa el modelo&comma; de esos pulgares hacia arriba y hacia abajo&&num;8221&semi;&period;<&sol;p>&NewLine;<p> En Hugging Face se puede consultar cómo las actualizaciones son frecuentes en este proyecto&colon; aparecen nuevos modelos cada pocas semanas&&num;8230&semi; o días&period;<&sol;p>&NewLine;<p>Esa infrmación le da muchas pistas a las grandes tecnológicas de si sus modelos están cumpliendo con las expectativas de los usuarios o no&period; Aquí añadía además algo importante&colon;<&sol;p>&NewLine;<p>&&num;8220&semi;Hay opciones de tener inferencia y centros de datos&period; Están Jupiter&comma; Leonardo o Lumi&comma; por ejemplo&comma; pero falta voluntad política&period; Esto es una alternativa pública&comma; la necesitamos y no podemos dejar algo así en manos privadas&&num;8221&semi;&period; Para él que existan modelos comerciales y cerrados es normal y totalmente respetable&comma; pero la analogía en su opinión es clara&period; Esto es como los coches privados y los autobuses&colon; &&num;8220&semi;quien no tenga coche&comma; que al menos pueda ir en autobús&&num;8221&semi;&period; Esa es sin duda la razón de ser de un modelo que no pretende competir con ChatGPT o Gemini&period; González-Agirre señala que <&sol;p>&NewLine;<p>&&num;8220&semi;Lo que pretendemos es que sea bueno en los idiomas cooficiales&comma; que sea mejor que otros modelos&comma; y lo siguiente es que esté alineado con nuestros valores y cultura&period; Que no sea un modelo de otro idioma hablando español&period; Que no pase como en los modelos chinos&comma; que no pueden contestar algunas cosas&period; Que podamos defender que no tiene sesgos  ni de género&comma; ni de raza&comma; ni de edad&comma; y que haya trazabilidad y transparencia completa&&num;8221&semi;&period;Y aquí también destaca que en su equipo y en España &&num;8220&semi;hay gente muy&comma; muy buena&comma; y que aprende mucho&comma; pero me gustaría que esta gente tuviera recursos para quedarse aquí y contribuyese al tejido de España y Europa&&num;8221&semi;&period; <&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> España no es en absoluto puntera en IA&comma; pero ya tenemos una agencia regulatoria con 80 empleados&period; No sabemos muy bien qué van a regular <&sol;p>&NewLine;<p>ALIA se enfrenta también a una competencia feroz por parte de los modelos &lpar;más o menos&rpar; abiertos que llegan de China&comma; y aunque González-Agirre admite que &&num;8220&semi;tienen unos modelos muy buenos y eficientes&comma; pero no tan baratos como ellos dicen&&num;8221&semi;&comma; añade que &&num;8220&semi;prefiero usar un modelo soberano que sé cómo está hecho&&num;8221&semi;&period; En ALIA la transparencia es completa&comma; y además hacen uso de una licencia Apache que precisamente defiende ese enfoque abierto&period; <&sol;p>&NewLine;<p>El futuro inmediato de estos modelos es prometedor&period; &&num;8220&semi;A finales de año tendremos versiones muy usables del modelo con un rendimiento parecido a modelos de su tamaño&&num;8221&semi;&comma; pero tendrán que trabajar también con su equipo Red Team —que intenta hacer &&num;8220&semi;jailbreak&&num;8221&semi; de ALIA para evitar que genere cosas que no debe&period; <&sol;p>&NewLine;<p>A partir de ahí&comma; el objetivo es el de lograr versiones de ALIA que tengan capacidades de razonamiento&comma; agénticas y que también sea capaz de realizar llamadas a herramientas&comma; como algunos de sus competidores comerciales&period; El camino será probablemente mucho más difícil que el de las grandes empresas que no paran de lanzar novedades sin pedir ni permiso ni perdón&comma; pero el resultado&comma; esperemos&comma; valdrá la pena&period;<br &sol;>&NewLine;En Xataka &vert; España ha firmado un acuerdo con IBM para chatbots de IA en euskera&comma; gallego y catalán&period; El problema es que ya existen<&sol;p>&NewLine;<p> &&num;8211&semi; La noticia<&sol;p>&NewLine;<p> El arranque de ALIA&comma; el modelo de IA español&comma; ha sido errático y decepcionante&period; Ahora sabemos por qué <&sol;p>&NewLine;<p> fue publicada originalmente en<&sol;p>&NewLine;<p> Xataka <&sol;p>&NewLine;<p> por<br &sol;>&NewLine; Javier Pastor<&sol;p>&NewLine;<p> &period;   <&sol;p>&NewLine;<p>&ZeroWidthSpace;   <&sol;p>&NewLine;<p>&ZeroWidthSpace; <&sol;p>&NewLine;

Leave a Reply

Your email address will not be published. Required fields are marked *

Noticias Importantes

Copyright © 2017 ERM DIGITAL. powered by ERM.