{"id":13316,"date":"2026-04-06T11:16:56","date_gmt":"2026-04-06T15:16:56","guid":{"rendered":"https:\/\/ermdigital.com\/index.php\/2026\/04\/06\/gemini-esta-bien-pero-la-ia-local-que-google-acaba-de-lanzar-para-moviles-es-una-pasada\/"},"modified":"2026-04-06T11:16:56","modified_gmt":"2026-04-06T15:16:56","slug":"gemini-esta-bien-pero-la-ia-local-que-google-acaba-de-lanzar-para-moviles-es-una-pasada","status":"publish","type":"post","link":"https:\/\/ermdigital.com\/index.php\/2026\/04\/06\/gemini-esta-bien-pero-la-ia-local-que-google-acaba-de-lanzar-para-moviles-es-una-pasada\/","title":{"rendered":"Gemini est\u00e1 bien. Pero la IA local que Google acaba de lanzar para m\u00f3viles es una pasada"},"content":{"rendered":"<p>\n      <img decoding=\"async\" src=\"https:\/\/i.blogs.es\/1f7bd5\/pixel\/1024_2000.jpeg\" alt=\"Gemini est\u00e1 bien. Pero la IA local que Google acaba de lanzar para m\u00f3viles es una pasada \">\n    <\/p>\n<p>A finales de la semana pasada, Google lanzaba Gemma 4. Gemma es una familia de modelos de IA generativa con un tama\u00f1o peque\u00f1o: modelos con par\u00e1metros efectivos de entre 2B y 4B creados principalmente para su implementaci\u00f3n en dispositivos m\u00f3viles. Pese a su tama\u00f1o, son modelos densos, y durante el fin de semana el tema de conversaci\u00f3n ha sido principalmente este.<\/p>\n<p><!-- BREAK 1 --><\/p>\n<p><strong>C\u00f3mo instalar Gemma 4<\/strong>. Puedes hacer una instalaci\u00f3n de Gemma 4 para que funcione de forma offline en tu tel\u00e9fono, independientemente de que tengas o no conexi\u00f3n a internet. El proceso de instalaci\u00f3n requiere una app adicional firmada por Google: <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/basics\/google-ai-edge-gallery-que-como-instalar-esta-app-gratis-codigo-abierto-para-usar-modelos-ia-locales-gratis\" data-vars-post-title=\"Google AI Edge Gallery: qu\u00e9 es y c\u00f3mo instalar esta app gratis y de c\u00f3digo abierto para usar modelos de IA locales y gratis \" data-vars-post-url=\"https:\/\/www.xataka.com\/basics\/google-ai-edge-gallery-que-como-instalar-esta-app-gratis-codigo-abierto-para-usar-modelos-ia-locales-gratis\">Google Edge Gallery<\/a>.\u00a0<\/p>\n<p><!-- BREAK 2 --><\/p>\n<p>Esta app, de c\u00f3digo abierto, permite interactuar con modelos de IA descargados en el propio tel\u00e9fono, sin necesidad de conexi\u00f3n a internet. Y, desde el lanzamiento de <a rel=\"noopener, noreferrer\" href=\"https:\/\/deepmind.google\/models\/gemma\/gemma-4\/\">Gemma 4<\/a>, el modelo puede ejecutarse en tel\u00e9fonos m\u00f3viles. Los modelos de Gemma 4 est\u00e1n disponibles en 4 tama\u00f1os de par\u00e1metros: E2B, E4B, 31B y 26B A4B. A mayor n\u00famero de par\u00e1metros, mayor capacidad, pero m\u00e1s energ\u00eda y memoria se consume.<\/p>\n<p><!-- BREAK 3 --><\/p>\n<div class=\"article-asset-video article-asset-normal\">\n<div class=\"asset-content\">\n<div class=\"base-asset-video\">\n<div class=\"js-dailymotion\"><\/div>\n<\/p><\/div>\n<\/p><\/div>\n<\/div>\n<p><strong>Qu\u00e9 hace Gemma 4<\/strong>. Gemma 4, hasta la fecha, es uno de los mejores modelos locales para smartphone. Seg\u00fan Google, supera a las \u00faltimas versiones de <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/basics\/deepseek-que-como-funciona-que-opciones-tiene-esta-inteligencia-artificial\" data-vars-post-title=\"DeepSeek: qu\u00e9 es, c\u00f3mo funciona y qu\u00e9 opciones tiene esta inteligencia artificial\" data-vars-post-url=\"https:\/\/www.xataka.com\/basics\/deepseek-que-como-funciona-que-opciones-tiene-esta-inteligencia-artificial\">DeepSeek<\/a>, <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/basics\/qwen-que-como-usar-inteligencia-artificial-alibaba-gratis-tener-que-pagar-cuotas\" data-vars-post-title=\"Qwen: qu\u00e9 es y c\u00f3mo usar la inteligencia artificial de Alibaba gratis sin tener que pagar cuotas\" data-vars-post-url=\"https:\/\/www.xataka.com\/basics\/qwen-que-como-usar-inteligencia-artificial-alibaba-gratis-tener-que-pagar-cuotas\">Qwen<\/a> y <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/basics\/kimi-k2-thinking-que-caracteristicas-este-modelo-inteligencia-artificial-diferencias-gemini-chatgpt\" data-vars-post-title=\"Kimi K2 Thinking: qu\u00e9 es, caracter\u00edsticas de este modelo de inteligencia artificial y diferencias con Gemini y ChatGPT\" data-vars-post-url=\"https:\/\/www.xataka.com\/basics\/kimi-k2-thinking-que-caracteristicas-este-modelo-inteligencia-artificial-diferencias-gemini-chatgpt\">Kimi<\/a>. Podemos usarlo como chatbot (teniendo en cuenta sus limitaciones al no estar conectado a internet), hacerle preguntas sobre cualquier imagen que tengamos en la galer\u00eda, as\u00ed como para transcribir y traducir audio. Porque s\u00ed, ahora los modelos locales de Google son compatibles con audio e incluso visi\u00f3n en tiempo real (si le damos permisos de c\u00e1mara).<\/p>\n<p><!-- BREAK 4 --><\/p>\n<p>Adem\u00e1s de estos usos, cuenta con sus propias skills: estas nos permiten usar funciones especializadas para crear mapas interactivos, realizar b\u00fasquedas locales dentro de herramientas como Wikipedia, realizar c\u00e1lculos, etc. Para el usuario medio, estos modelos suponen una gigantesca enciclopedia de bolsillo que no necesita ning\u00fan tipo de conexi\u00f3n.\u00a0<\/p>\n<p><!-- BREAK 5 --><\/p>\n<div class=\"article-asset article-asset-normal article-asset-center\">\n<div class=\"desvio-container\">\n<div class=\"desvio\">\n<div class=\"desvio-figure js-desvio-figure\">\n    <a href=\"https:\/\/www.xataka.com\/basics\/que-google-ai-studio-que-puedes-hacer-esta-herramienta-creacion-inteligencia-artificial\" class=\"pivot-outboundlink\" data-vars-post-title=\"Qu\u00e9 es Google AI Studio y qu\u00e9 puedes hacer con esta herramienta de creaci\u00f3n con inteligencia artificial \"><br \/>\n     <img loading=\"lazy\" decoding=\"async\" alt=\"Qu\u00e9 es Google AI Studio y qu\u00e9 puedes hacer con esta herramienta de creaci\u00f3n con inteligencia artificial \" width=\"375\" height=\"142\" src=\"https:\/\/i.blogs.es\/f98d76\/google-ai-studio\/375_142.jpeg\"><br \/>\n    <\/a>\n   <\/div>\n<div class=\"desvio-summary\">\n<div class=\"desvio-taxonomy js-desvio-taxonomy\">\n     <a href=\"https:\/\/www.xataka.com\/basics\/que-google-ai-studio-que-puedes-hacer-esta-herramienta-creacion-inteligencia-artificial\" class=\"desvio-taxonomy-anchor pivot-outboundlink\" data-vars-post-title=\"Qu\u00e9 es Google AI Studio y qu\u00e9 puedes hacer con esta herramienta de creaci\u00f3n con inteligencia artificial \">En Xataka<\/a>\n    <\/div>\n<p>    <a href=\"https:\/\/www.xataka.com\/basics\/que-google-ai-studio-que-puedes-hacer-esta-herramienta-creacion-inteligencia-artificial\" class=\"desvio-title js-desvio-title pivot-outboundlink\" data-vars-post-title=\"Qu\u00e9 es Google AI Studio y qu\u00e9 puedes hacer con esta herramienta de creaci\u00f3n con inteligencia artificial \">Qu\u00e9 es Google AI Studio y qu\u00e9 puedes hacer con esta herramienta de creaci\u00f3n con inteligencia artificial <\/a>\n   <\/div>\n<\/p><\/div>\n<\/p><\/div>\n<\/div>\n<p><strong>Qu\u00e9 ventajas tiene<\/strong>. La primera ventaja de usar modelos locales como Gemma 4 es la velocidad de procesamiento. No hay lag, la respuesta es inmediata, y sorprende cuando venimos de herramientas conectadas como ChatGPT, Gemini o Claude. La segunda es la seguridad: el modelo no tiene conexi\u00f3n a internet y los datos no salen de tu dispositivo. Puedes usarlos en modo avi\u00f3n o en cualquier zona sin cobertura.<\/p>\n<p><!-- BREAK 6 --><\/p>\n<p>Actualmente estos modelos no son un remplazo de las grandes IAs conectadas, son un complemento perfecto para situaciones en las que no tenemos conexi\u00f3n, y queremos seguir disponiendo de un modelo para tareas muy concretas.\u00a0<\/p>\n<p><!-- BREAK 7 --><\/p>\n<p><strong>Por qu\u00e9 es importante<\/strong>. Que Google est\u00e9 redoblando esfuerzos en la IA local responde a varias demandas actuales y futuras.<\/p>\n<ul>\n<li>Ejecutar IA en servidores vale un pastizal y est\u00e1 generando <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/componentes\/precios-memoria-han-empezado-a-caer-algunos-mercados-queda-mucho-para-dar-cerrada-crisis-ia\" data-vars-post-title=\"Los precios de la memoria han empezado a caer en algunos mercados. A\u00fan queda mucho para dar por cerrada la crisis de la IA \" data-vars-post-url=\"https:\/\/www.xataka.com\/componentes\/precios-memoria-han-empezado-a-caer-algunos-mercados-queda-mucho-para-dar-cerrada-crisis-ia\">crisis como la de la RAM<\/a>. Ganar en alternativas locales cada vez es m\u00e1s importante.<\/li>\n<li>La guerra por los modelos abiertos es una en la que no quiere quedarse atr\u00e1s: Llama, Mistral, DeepSeek.<\/li>\n<li>Empresas, gobiernos y una peque\u00f1a parte de usuarios no quiere (o no puede) enviar sus datos a servidores externos. Los modelos locales resuelven el problema.<\/li>\n<li>Google est\u00e1 haciendo bien los deberes con Gemini, pero sin conexi\u00f3n el m\u00f3vil se queda sin IA.<\/li>\n<\/ul>\n<p>La apuesta de Google por Gemma y su implementaci\u00f3n mediante una app propia, deja ciertas pistas sobre posibles funciones de Gemini sin conexi\u00f3n en un futuro.\u00a0<\/p>\n<p>En Xataka | <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/robotica-e-ia\/tener-ia-mi-movil-que-funciona-conexion-a-internet-util-que-pensaba-asi-puedes-poner-marcha-facil\" data-vars-post-title=\"Tener una IA en mi m\u00f3vil que funciona sin conexi\u00f3n a Internet es m\u00e1s \u00fatil de lo que pensaba: as\u00ed la puedes poner en marcha\" data-vars-post-url=\"https:\/\/www.xataka.com\/robotica-e-ia\/tener-ia-mi-movil-que-funciona-conexion-a-internet-util-que-pensaba-asi-puedes-poner-marcha-facil\">Tener una IA en mi m\u00f3vil que funciona sin conexi\u00f3n a Internet es m\u00e1s \u00fatil de lo que pensaba: as\u00ed la puedes poner en marcha<\/a><\/p>\n<p><\/p>\n<p> &#8211; <br \/> La noticia<br \/>\n      <a href=\"https:\/\/www.xataka.com\/aplicaciones\/gemini-esta-bien-ia-local-que-google-acaba-lanzar-para-moviles-pasada?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=06_Apr_2026\"><br \/>\n       <em> Gemini est\u00e1 bien. Pero la IA local que Google acaba de lanzar para m\u00f3viles es una pasada  <\/em><br \/>\n      <\/a><br \/>\n      fue publicada originalmente en<br \/>\n      <a href=\"https:\/\/www.xataka.com\/?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=06_Apr_2026\"><br \/>\n       <strong> Xataka <\/strong><br \/>\n      <\/a><br \/>\n             por <a href=\"https:\/\/www.xataka.com\/autor\/ricardo-aguilar?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=06_Apr_2026\"><br \/>\n        Ricardo Aguilar<br \/>\n       <\/a><br \/>\n      . <\/p>\n<p>\u00a0A finales de la semana pasada, Google lanzaba Gemma 4. Gemma es una familia de modelos de IA generativa con un tama\u00f1o peque\u00f1o: modelos con par\u00e1metros efectivos de entre 2B y 4B creados principalmente para su implementaci\u00f3n en dispositivos m\u00f3viles. Pese a su tama\u00f1o, son modelos densos, y durante el fin de semana el tema de conversaci\u00f3n ha sido principalmente este.<\/p>\n<p>C\u00f3mo instalar Gemma 4. Puedes hacer una instalaci\u00f3n de Gemma 4 para que funcione de forma offline en tu tel\u00e9fono, independientemente de que tengas o no conexi\u00f3n a internet. El proceso de instalaci\u00f3n requiere una app adicional firmada por Google: Google Edge Gallery.\u00a0<\/p>\n<p>Esta app, de c\u00f3digo abierto, permite interactuar con modelos de IA descargados en el propio tel\u00e9fono, sin necesidad de conexi\u00f3n a internet. Y, desde el lanzamiento de Gemma 4, el modelo puede ejecutarse en tel\u00e9fonos m\u00f3viles. Los modelos de Gemma 4 est\u00e1n disponibles en 4 tama\u00f1os de par\u00e1metros: E2B, E4B, 31B y 26B A4B. A mayor n\u00famero de par\u00e1metros, mayor capacidad, pero m\u00e1s energ\u00eda y memoria se consume.<\/p>\n<p>Qu\u00e9 hace Gemma 4. Gemma 4, hasta la fecha, es uno de los mejores modelos locales para smartphone. Seg\u00fan Google, supera a las \u00faltimas versiones de DeepSeek, Qwen y Kimi. Podemos usarlo como chatbot (teniendo en cuenta sus limitaciones al no estar conectado a internet), hacerle preguntas sobre cualquier imagen que tengamos en la galer\u00eda, as\u00ed como para transcribir y traducir audio. Porque s\u00ed, ahora los modelos locales de Google son compatibles con audio e incluso visi\u00f3n en tiempo real (si le damos permisos de c\u00e1mara).<\/p>\n<p>Adem\u00e1s de estos usos, cuenta con sus propias skills: estas nos permiten usar funciones especializadas para crear mapas interactivos, realizar b\u00fasquedas locales dentro de herramientas como Wikipedia, realizar c\u00e1lculos, etc. Para el usuario medio, estos modelos suponen una gigantesca enciclopedia de bolsillo que no necesita ning\u00fan tipo de conexi\u00f3n.\u00a0<\/p>\n<p>     En Xataka<\/p>\n<p>    Qu\u00e9 es Google AI Studio y qu\u00e9 puedes hacer con esta herramienta de creaci\u00f3n con inteligencia artificial <\/p>\n<p>Qu\u00e9 ventajas tiene. La primera ventaja de usar modelos locales como Gemma 4 es la velocidad de procesamiento. No hay lag, la respuesta es inmediata, y sorprende cuando venimos de herramientas conectadas como ChatGPT, Gemini o Claude. La segunda es la seguridad: el modelo no tiene conexi\u00f3n a internet y los datos no salen de tu dispositivo. Puedes usarlos en modo avi\u00f3n o en cualquier zona sin cobertura.<\/p>\n<p>Actualmente estos modelos no son un remplazo de las grandes IAs conectadas, son un complemento perfecto para situaciones en las que no tenemos conexi\u00f3n, y queremos seguir disponiendo de un modelo para tareas muy concretas.\u00a0<\/p>\n<p>Por qu\u00e9 es importante. Que Google est\u00e9 redoblando esfuerzos en la IA local responde a varias demandas actuales y futuras.<\/p>\n<p>Ejecutar IA en servidores vale un pastizal y est\u00e1 generando crisis como la de la RAM. Ganar en alternativas locales cada vez es m\u00e1s importante.La guerra por los modelos abiertos es una en la que no quiere quedarse atr\u00e1s: Llama, Mistral, DeepSeek.Empresas, gobiernos y una peque\u00f1a parte de usuarios no quiere (o no puede) enviar sus datos a servidores externos. Los modelos locales resuelven el problema.Google est\u00e1 haciendo bien los deberes con Gemini, pero sin conexi\u00f3n el m\u00f3vil se queda sin IA.La apuesta de Google por Gemma y su implementaci\u00f3n mediante una app propia, deja ciertas pistas sobre posibles funciones de Gemini sin conexi\u00f3n en un futuro.\u00a0<\/p>\n<p>En Xataka | Tener una IA en mi m\u00f3vil que funciona sin conexi\u00f3n a Internet es m\u00e1s \u00fatil de lo que pensaba: as\u00ed la puedes poner en marcha<\/p>\n<p>                 &#8211;  La noticia<\/p>\n<p>        Gemini est\u00e1 bien. Pero la IA local que Google acaba de lanzar para m\u00f3viles es una pasada  <\/p>\n<p>      fue publicada originalmente en<\/p>\n<p>        Xataka <\/p>\n<p>             por<br \/>\n        Ricardo Aguilar<\/p>\n<p>      .\u00a0\u00a0\u00a0<\/p>\n","protected":false},"excerpt":{"rendered":"<p>A finales de la semana pasada, Google lanzaba Gemma 4. Gemma es una familia de modelos de IA generativa con un tama\u00f1o peque\u00f1o: modelos con par\u00e1metros efectivos de entre 2B y 4B creados principalmente para su implementaci\u00f3n en dispositivos m\u00f3viles. Pese a su tama\u00f1o, son modelos densos, y durante el fin de semana el tema [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":13317,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"amp_status":"","footnotes":""},"categories":[6],"tags":[],"class_list":["post-13316","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ciencia-y-tecnologia"],"_links":{"self":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts\/13316","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/comments?post=13316"}],"version-history":[{"count":0,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts\/13316\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/media\/13317"}],"wp:attachment":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/media?parent=13316"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/categories?post=13316"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/tags?post=13316"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}