Ciencia y Tecnología
Gemini está bien. Pero la IA local que Google acaba de lanzar para móviles es una pasada
A finales de la semana pasada, Google lanzaba Gemma 4. Gemma es una familia de modelos de IA generativa con un tamaño pequeño: modelos con parámetros efectivos de entre 2B y 4B creados principalmente para su implementación en dispositivos móviles. Pese a su tamaño, son modelos densos, y durante el fin de semana el tema de conversación ha sido principalmente este.
Cómo instalar Gemma 4. Puedes hacer una instalación de Gemma 4 para que funcione de forma offline en tu teléfono, independientemente de que tengas o no conexión a internet. El proceso de instalación requiere una app adicional firmada por Google: Google Edge Gallery.
Esta app, de código abierto, permite interactuar con modelos de IA descargados en el propio teléfono, sin necesidad de conexión a internet. Y, desde el lanzamiento de Gemma 4, el modelo puede ejecutarse en teléfonos móviles. Los modelos de Gemma 4 están disponibles en 4 tamaños de parámetros: E2B, E4B, 31B y 26B A4B. A mayor número de parámetros, mayor capacidad, pero más energía y memoria se consume.
Qué hace Gemma 4. Gemma 4, hasta la fecha, es uno de los mejores modelos locales para smartphone. Según Google, supera a las últimas versiones de DeepSeek, Qwen y Kimi. Podemos usarlo como chatbot (teniendo en cuenta sus limitaciones al no estar conectado a internet), hacerle preguntas sobre cualquier imagen que tengamos en la galería, así como para transcribir y traducir audio. Porque sí, ahora los modelos locales de Google son compatibles con audio e incluso visión en tiempo real (si le damos permisos de cámara).
Además de estos usos, cuenta con sus propias skills: estas nos permiten usar funciones especializadas para crear mapas interactivos, realizar búsquedas locales dentro de herramientas como Wikipedia, realizar cálculos, etc. Para el usuario medio, estos modelos suponen una gigantesca enciclopedia de bolsillo que no necesita ningún tipo de conexión.
Qué ventajas tiene. La primera ventaja de usar modelos locales como Gemma 4 es la velocidad de procesamiento. No hay lag, la respuesta es inmediata, y sorprende cuando venimos de herramientas conectadas como ChatGPT, Gemini o Claude. La segunda es la seguridad: el modelo no tiene conexión a internet y los datos no salen de tu dispositivo. Puedes usarlos en modo avión o en cualquier zona sin cobertura.
Actualmente estos modelos no son un remplazo de las grandes IAs conectadas, son un complemento perfecto para situaciones en las que no tenemos conexión, y queremos seguir disponiendo de un modelo para tareas muy concretas.
Por qué es importante. Que Google esté redoblando esfuerzos en la IA local responde a varias demandas actuales y futuras.
- Ejecutar IA en servidores vale un pastizal y está generando crisis como la de la RAM. Ganar en alternativas locales cada vez es más importante.
- La guerra por los modelos abiertos es una en la que no quiere quedarse atrás: Llama, Mistral, DeepSeek.
- Empresas, gobiernos y una pequeña parte de usuarios no quiere (o no puede) enviar sus datos a servidores externos. Los modelos locales resuelven el problema.
- Google está haciendo bien los deberes con Gemini, pero sin conexión el móvil se queda sin IA.
La apuesta de Google por Gemma y su implementación mediante una app propia, deja ciertas pistas sobre posibles funciones de Gemini sin conexión en un futuro.
–
La noticia
Gemini está bien. Pero la IA local que Google acaba de lanzar para móviles es una pasada
fue publicada originalmente en
Xataka
por
Ricardo Aguilar
.
A finales de la semana pasada, Google lanzaba Gemma 4. Gemma es una familia de modelos de IA generativa con un tamaño pequeño: modelos con parámetros efectivos de entre 2B y 4B creados principalmente para su implementación en dispositivos móviles. Pese a su tamaño, son modelos densos, y durante el fin de semana el tema de conversación ha sido principalmente este.
Cómo instalar Gemma 4. Puedes hacer una instalación de Gemma 4 para que funcione de forma offline en tu teléfono, independientemente de que tengas o no conexión a internet. El proceso de instalación requiere una app adicional firmada por Google: Google Edge Gallery.
Esta app, de código abierto, permite interactuar con modelos de IA descargados en el propio teléfono, sin necesidad de conexión a internet. Y, desde el lanzamiento de Gemma 4, el modelo puede ejecutarse en teléfonos móviles. Los modelos de Gemma 4 están disponibles en 4 tamaños de parámetros: E2B, E4B, 31B y 26B A4B. A mayor número de parámetros, mayor capacidad, pero más energía y memoria se consume.
Qué hace Gemma 4. Gemma 4, hasta la fecha, es uno de los mejores modelos locales para smartphone. Según Google, supera a las últimas versiones de DeepSeek, Qwen y Kimi. Podemos usarlo como chatbot (teniendo en cuenta sus limitaciones al no estar conectado a internet), hacerle preguntas sobre cualquier imagen que tengamos en la galería, así como para transcribir y traducir audio. Porque sí, ahora los modelos locales de Google son compatibles con audio e incluso visión en tiempo real (si le damos permisos de cámara).
Además de estos usos, cuenta con sus propias skills: estas nos permiten usar funciones especializadas para crear mapas interactivos, realizar búsquedas locales dentro de herramientas como Wikipedia, realizar cálculos, etc. Para el usuario medio, estos modelos suponen una gigantesca enciclopedia de bolsillo que no necesita ningún tipo de conexión.
En Xataka
Qué es Google AI Studio y qué puedes hacer con esta herramienta de creación con inteligencia artificial
Qué ventajas tiene. La primera ventaja de usar modelos locales como Gemma 4 es la velocidad de procesamiento. No hay lag, la respuesta es inmediata, y sorprende cuando venimos de herramientas conectadas como ChatGPT, Gemini o Claude. La segunda es la seguridad: el modelo no tiene conexión a internet y los datos no salen de tu dispositivo. Puedes usarlos en modo avión o en cualquier zona sin cobertura.
Actualmente estos modelos no son un remplazo de las grandes IAs conectadas, son un complemento perfecto para situaciones en las que no tenemos conexión, y queremos seguir disponiendo de un modelo para tareas muy concretas.
Por qué es importante. Que Google esté redoblando esfuerzos en la IA local responde a varias demandas actuales y futuras.
Ejecutar IA en servidores vale un pastizal y está generando crisis como la de la RAM. Ganar en alternativas locales cada vez es más importante.La guerra por los modelos abiertos es una en la que no quiere quedarse atrás: Llama, Mistral, DeepSeek.Empresas, gobiernos y una pequeña parte de usuarios no quiere (o no puede) enviar sus datos a servidores externos. Los modelos locales resuelven el problema.Google está haciendo bien los deberes con Gemini, pero sin conexión el móvil se queda sin IA.La apuesta de Google por Gemma y su implementación mediante una app propia, deja ciertas pistas sobre posibles funciones de Gemini sin conexión en un futuro.
En Xataka | Tener una IA en mi móvil que funciona sin conexión a Internet es más útil de lo que pensaba: así la puedes poner en marcha
– La noticia
Gemini está bien. Pero la IA local que Google acaba de lanzar para móviles es una pasada
fue publicada originalmente en
Xataka
por
Ricardo Aguilar
.

