Connect with us

Ciencia y Tecnología

Tener una IA en mi móvil que funciona sin conexión a Internet es más útil de lo que pensaba: así la puedes poner en marcha

Published

on

Tener una IA en mi móvil que funciona sin conexión a Internet es más útil de lo que pensaba: así la puedes poner en marcha

Además de todos los modelos de lenguaje para IA comerciales que tenemos a nuestra disposición (ChatGPT, Gemini, Claude, etc), existe todo un mundo de modelos de lenguaje de código abierto que nos pueden servir para un montón de aplicaciones, tanto a nivel doméstico, como empresarial. Llevo un buen tiempo trasteando con LLMs en local y la verdad es que tener uno funcionando sin necesidad de conexión a Internet nos puede venir francamente bien.

La cuestión es que instalar un LLM en local y en nuestro teléfono móvil es más sencillo de lo que parece. A día de hoy podemos encontrar herramientas muy fáciles de manejar y con una interfaz muy amigable para cualquier usuario. Encima, tampoco necesitas un smartphone con especificaciones técnicas muy elevadas para ejecutar un modelo chiquito. Bajo este texto te explico cómo hacerlo y qué sentido tiene tener una IA en local en tu móvil.

Qué es PocketPal y qué sentido tiene tener una IA en local

Una de las herramientas que lo hace posible se llama PocketPal AI, y lo mejor es que instalarla y ponerla en marcha no requiere conocimientos técnicos. La app es gratuita para iOS y Android y permite instalar modelos de inteligencia artificial directamente en el teléfono móvil, de manera que el usuario puede utilizarlos sin conexión a Internet, con privacidad total y sin que sus conversaciones lleguen a servidores externos.

La clave de todo esto está en hacer uso de versiones reducidas de algunos de los modelos de lenguaje que conocemos. Estos pequeños modelos están pensados para ejecutarse directamente en la CPU o GPU de un dispositivo de consumo. No tienen la misma capacidad de razonamiento que el modelo más avanzado de OpenAI o Anthropic, ya que eso ahora mismo sería imposible en el hardware de un teléfono, pero sí son suficientemente capaces para una gran variedad de tareas cotidianas: resumir textos, responder preguntas, traducir, ayudar a redactar, generar código sencillo o simplemente tener una conversación.

Juntas Nuevo 1

La propuesta es útil en más situaciones de las que parece. Imagina que estás en el metro sin cobertura, en un viaje al extranjero sin datos o en una zona rural. Con una IA instalada localmente en el móvil tienes siempre a mano una especie de enciclopedia inteligente: alguien con quien consultar, pensar en voz alta o resolver dudas en el momento. Y lo que es igual de importante: con total privacidad. Todo el procesamiento ocurre íntegramente en el dispositivo. Las conversaciones, los prompts y los datos nunca salen del teléfono ni se almacenan en servidores externos.

Qué móvil necesitas

Antes de lanzarte a descargar la app, conviene revisar si tu dispositivo tiene lo necesario. Ejecutar un modelo de IA en local requiere que el dispositivo tenga una serie de especificaciones técnicas más o menos importantes, aunque tampoco hace falta que nos vayamos a la gama más alta de dispositivos para ejecutarlos. Yo mismo estoy usando PocketPal en un modesto, pero más que capaz OnePlus Nord 2.

Los modelos de inteligencia artificial son archivos considerablemente grandes, por lo que se necesita cierto espacio de almacenamiento interno libre, y el procesamiento local demanda potencia de hardware. Pero vaya, con que tengas una cantidad de RAM considerable y una CPU que no de pena, vas sobrado.

Los requisitos varían mucho según el modelo que quieras instalar, pero como orientación general:

  • RAM: Mínimo 6 GB para modelos pequeños (1-3B parámetros). Para modelos medianos de 7B parámetros, conviene tener al menos 8 GB.
  • Almacenamiento libre: Entre 2 y 5 GB para los modelos más ligeros. Un modelo de PocketPal AI suele ocupar entre 1 y 4 GB por instalación.
  • Procesador: Cualquier gama media-alta de los últimos cuatro o cinco años funciona. Para modelos más exigentes y con más parámetros sí se recomienda un procesador bien potente.
  • Sistema operativo: para usar PocketPal específicamente se requiere Android 7.0 (Nougat) o superior en Android, y está disponible también para iPhone a partir de iOS 15.1.

La buena noticia es que los modelos más ligeros, como Qwen2.5-1.5B, pueden funcionar incluso en dispositivos más modestos. El propio equipo de PocketPal lo recomienda como punto de partida. La cosa es ir probando. Yo por ejemplo instalé Qwen3-4B y me va bastante bien en un teléfono de gama media de hace 5 años.

Cómo instalar PocketPal paso a paso

Para tener PocketPal funcionando correctamente en tu móvil no tienes que hacer mucho. Bajo estas líneas te contamos cómo hacerlo paso a paso:

1. Descarga la app

PocketPal AI está disponible tanto en la Play Store de Android como en la App Store de Apple. Enlaces para Android y para iOS.

2. Descarga un modelo de IA

Una vez dentro, la aplicación te pedirá que descargues un modelo para empezar. En ‘Models’ aparece un listado de los modelos disponibles. En esa lista no encontrarás nombres como Gemini o GPT, que son modelos propietarios. En su lugar verás sus versiones de código abierto: Gemma es la versión abierta de Gemini de Google; Llama es el modelo de Meta, la misma IA que usan WhatsApp e Instagram; Phi es el modelo abierto de Microsoft; y Qwen es de Alibaba, entre otros.

Juntas Nuevo 2

Si eres nuevo y quieres probar, quizás uno de los más recomendables y ligeritos es Qwen2.5-1.5B. Da buenos resultados para consultas sencillas y es bastante rápido (si el hardware de tu teléfono está más o menos a la altura). Si tu móvil tiene más de 6 GB de RAM y espacio libre de sobra, puedes probar modelos de 3B-4B parámetros como Llama 3.2 3B, que ofrece respuestas más elaboradas.

Lo bueno es que también tienes todo el repositorio de Hugging Face para probar pulsando el botón de la esquina inferior derecha. Aquí podemos instalar directamente desde Hugging Face cualquier modelo, como por ejemplo Qwen3-4B-Instruct, que es el que instalé yo en el Nord 2, o probar con otros de DeepSeek o Mistral. Todo funciona desde la app, sin salir de ella.

Importante: la descarga del modelo sí requiere conexión a Internet. Solo hay que estar conectado en ese primer momento. A partir de ahí, todo funciona en local.

3. Carga el modelo y empieza a chatear

Una vez descargado, pulsa sobre el modelo para cargarlo en memoria. Después, ve a la sección de Chat, escribe tu mensaje y la IA responderá procesándolo íntegramente en tu teléfono. Puedes verificarlo desactivando el WiFi y los datos.

Qué rendimiento puedes esperar

Conviene ser realista. Una IA local en el móvil no es ChatGPT. Las respuestas llegarán más despacio y el teléfono se calentará un poco más de lo habitual por el uso intensivo del procesador. Los modelos generan entre 5 y 20 tokens por segundo en móviles de gama alta, suficiente para mantener una conversación fluida, pero lejos de la velocidad de un servidor con GPU.

Juntas Nuevo 3

Para sacarle más rendimiento en iPhone, está la opción de activar Metal, la API de aceleración de hardware de Apple y aumentar el parámetro "Layers on GPU" hasta alrededor de 80. Con este cambio, iOS traslada parte del procesamiento de la CPU a la GPU del dispositivo, lo que acelera notablemente la generación de texto. En algunos dispositivos recientes, activar también la opción de ‘Flash Attention’ puede añadir una mejora adicional.

En cuanto al tamaño de los archivos que funcionan mejor, el punto óptimo en smartphones y tablets es usar modelos de formato .gguf de aproximadamente 4 GB. Por encima de esa cifra la cosa se ralentiza significativamente.

PocketPal no es la única opción

PocketPal es probablemente la app más accesible para empezar, pero también tenemos otras alternativas. En Android destaca también MNN Chat, con soporte multimodal. Para quienes usan iPhone también tienen Private LLM, aunque es de pago e incluye modelos optimizados aprovechando técnicas de cuantización para rendir mejor en dispositivos más modestos.

Si lo que quieres es hacer lo mismo pero en un ordenador, las referencias son dos: Ollama y LM Studio. Con ellas es muy fácil tener una IA en local en tu PC. LM Studio tiene una interfaz visual muy amigable; Ollama es más técnico pero más flexible. Ambos son gratuitos y permiten ejecutar modelos de hasta 13B parámetros o más dependiendo del hardware del equipo.

Vale la pena, con matices

Una IA local en el móvil no sustituye a los grandes asistentes que conocemos, al menos por ahora. Para tareas complejas, documentos extensos o razonamientos sofisticados, las versiones de servidor siguen siendo superiores. Pero para el uso cotidiano (resolver una duda, resumir un párrafo, buscar ideas, traducir algo rápido o simplemente tener una conversación), los modelos pequeños hacen un trabajo más que digno. Eso sí, prepárate para las alucinaciones.

En Xataka | Decían que la IA generativa de vídeo acabaría con Hollywood. De momento la pelea está de parte de la tradición


La noticia

Tener una IA en mi móvil que funciona sin conexión a Internet es más útil de lo que pensaba: así la puedes poner en marcha

fue publicada originalmente en

Xataka

por
Antonio Vallejo

.

 Además de todos los modelos de lenguaje para IA comerciales que tenemos a nuestra disposición (ChatGPT, Gemini, Claude, etc), existe todo un mundo de modelos de lenguaje de código abierto que nos pueden servir para un montón de aplicaciones, tanto a nivel doméstico, como empresarial. Llevo un buen tiempo trasteando con LLMs en local y la verdad es que tener uno funcionando sin necesidad de conexión a Internet nos puede venir francamente bien.

La cuestión es que instalar un LLM en local y en nuestro teléfono móvil es más sencillo de lo que parece. A día de hoy podemos encontrar herramientas muy fáciles de manejar y con una interfaz muy amigable para cualquier usuario. Encima, tampoco necesitas un smartphone con especificaciones técnicas muy elevadas para ejecutar un modelo chiquito. Bajo este texto te explico cómo hacerlo y qué sentido tiene tener una IA en local en tu móvil.

Qué es PocketPal y qué sentido tiene tener una IA en localUna de las herramientas que lo hace posible se llama PocketPal AI, y lo mejor es que instalarla y ponerla en marcha no requiere conocimientos técnicos. La app es gratuita para iOS y Android y permite instalar modelos de inteligencia artificial directamente en el teléfono móvil, de manera que el usuario puede utilizarlos sin conexión a Internet, con privacidad total y sin que sus conversaciones lleguen a servidores externos.

En Xataka

En un internet lleno de contenido artificial, Wikipedia tiene claro qué quiere ser: una reserva de contenido humano

La clave de todo esto está en hacer uso de versiones reducidas de algunos de los modelos de lenguaje que conocemos. Estos pequeños modelos están pensados para ejecutarse directamente en la CPU o GPU de un dispositivo de consumo. No tienen la misma capacidad de razonamiento que el modelo más avanzado de OpenAI o Anthropic, ya que eso ahora mismo sería imposible en el hardware de un teléfono, pero sí son suficientemente capaces para una gran variedad de tareas cotidianas: resumir textos, responder preguntas, traducir, ayudar a redactar, generar código sencillo o simplemente tener una conversación.

La propuesta es útil en más situaciones de las que parece. Imagina que estás en el metro sin cobertura, en un viaje al extranjero sin datos o en una zona rural. Con una IA instalada localmente en el móvil tienes siempre a mano una especie de enciclopedia inteligente: alguien con quien consultar, pensar en voz alta o resolver dudas en el momento. Y lo que es igual de importante: con total privacidad. Todo el procesamiento ocurre íntegramente en el dispositivo. Las conversaciones, los prompts y los datos nunca salen del teléfono ni se almacenan en servidores externos.

Qué móvil necesitasAntes de lanzarte a descargar la app, conviene revisar si tu dispositivo tiene lo necesario. Ejecutar un modelo de IA en local requiere que el dispositivo tenga una serie de especificaciones técnicas más o menos importantes, aunque tampoco hace falta que nos vayamos a la gama más alta de dispositivos para ejecutarlos. Yo mismo estoy usando PocketPal en un modesto, pero más que capaz OnePlus Nord 2.

Los modelos de inteligencia artificial son archivos considerablemente grandes, por lo que se necesita cierto espacio de almacenamiento interno libre, y el procesamiento local demanda potencia de hardware. Pero vaya, con que tengas una cantidad de RAM considerable y una CPU que no de pena, vas sobrado.

En Xataka

Anthropic afrontaba un largo invierno en la "lista negra" de EEUU: la justicia le ha salvado sobre la bocina

Los requisitos varían mucho según el modelo que quieras instalar, pero como orientación general:

RAM: Mínimo 6 GB para modelos pequeños (1-3B parámetros). Para modelos medianos de 7B parámetros, conviene tener al menos 8 GB.Almacenamiento libre: Entre 2 y 5 GB para los modelos más ligeros. Un modelo de PocketPal AI suele ocupar entre 1 y 4 GB por instalación.Procesador: Cualquier gama media-alta de los últimos cuatro o cinco años funciona. Para modelos más exigentes y con más parámetros sí se recomienda un procesador bien potente.Sistema operativo: para usar PocketPal específicamente se requiere Android 7.0 (Nougat) o superior en Android, y está disponible también para iPhone a partir de iOS 15.1.La buena noticia es que los modelos más ligeros, como Qwen2.5-1.5B, pueden funcionar incluso en dispositivos más modestos. El propio equipo de PocketPal lo recomienda como punto de partida. La cosa es ir probando. Yo por ejemplo instalé Qwen3-4B y me va bastante bien en un teléfono de gama media de hace 5 años.

Cómo instalar PocketPal paso a pasoPara tener PocketPal funcionando correctamente en tu móvil no tienes que hacer mucho. Bajo estas líneas te contamos cómo hacerlo paso a paso:

1. Descarga la app

PocketPal AI está disponible tanto en la Play Store de Android como en la App Store de Apple. Enlaces para Android y para iOS.

2. Descarga un modelo de IA

Una vez dentro, la aplicación te pedirá que descargues un modelo para empezar. En ‘Models’ aparece un listado de los modelos disponibles. En esa lista no encontrarás nombres como Gemini o GPT, que son modelos propietarios. En su lugar verás sus versiones de código abierto: Gemma es la versión abierta de Gemini de Google; Llama es el modelo de Meta, la misma IA que usan WhatsApp e Instagram; Phi es el modelo abierto de Microsoft; y Qwen es de Alibaba, entre otros.

Si eres nuevo y quieres probar, quizás uno de los más recomendables y ligeritos es Qwen2.5-1.5B. Da buenos resultados para consultas sencillas y es bastante rápido (si el hardware de tu teléfono está más o menos a la altura). Si tu móvil tiene más de 6 GB de RAM y espacio libre de sobra, puedes probar modelos de 3B-4B parámetros como Llama 3.2 3B, que ofrece respuestas más elaboradas.

Lo bueno es que también tienes todo el repositorio de Hugging Face para probar pulsando el botón de la esquina inferior derecha. Aquí podemos instalar directamente desde Hugging Face cualquier modelo, como por ejemplo Qwen3-4B-Instruct, que es el que instalé yo en el Nord 2, o probar con otros de DeepSeek o Mistral. Todo funciona desde la app, sin salir de ella.

Importante: la descarga del modelo sí requiere conexión a Internet. Solo hay que estar conectado en ese primer momento. A partir de ahí, todo funciona en local.

En Xataka

No contenta con reventar la demanda y los precios de la RAM, la IA ya apunta a otra víctima: las baterías

3. Carga el modelo y empieza a chatear

Una vez descargado, pulsa sobre el modelo para cargarlo en memoria. Después, ve a la sección de Chat, escribe tu mensaje y la IA responderá procesándolo íntegramente en tu teléfono. Puedes verificarlo desactivando el WiFi y los datos.

Qué rendimiento puedes esperarConviene ser realista. Una IA local en el móvil no es ChatGPT. Las respuestas llegarán más despacio y el teléfono se calentará un poco más de lo habitual por el uso intensivo del procesador. Los modelos generan entre 5 y 20 tokens por segundo en móviles de gama alta, suficiente para mantener una conversación fluida, pero lejos de la velocidad de un servidor con GPU.

Para sacarle más rendimiento en iPhone, está la opción de activar Metal, la API de aceleración de hardware de Apple y aumentar el parámetro "Layers on GPU" hasta alrededor de 80. Con este cambio, iOS traslada parte del procesamiento de la CPU a la GPU del dispositivo, lo que acelera notablemente la generación de texto. En algunos dispositivos recientes, activar también la opción de ‘Flash Attention’ puede añadir una mejora adicional.

En cuanto al tamaño de los archivos que funcionan mejor, el punto óptimo en smartphones y tablets es usar modelos de formato .gguf de aproximadamente 4 GB. Por encima de esa cifra la cosa se ralentiza significativamente.

En Xataka

Amazon cree que disponer de un robot recogiendo cosas, doblando ropa y jugando con tu perro tiene precio: 50.000 dólares

PocketPal no es la única opciónPocketPal es probablemente la app más accesible para empezar, pero también tenemos otras alternativas. En Android destaca también MNN Chat, con soporte multimodal. Para quienes usan iPhone también tienen Private LLM, aunque es de pago e incluye modelos optimizados aprovechando técnicas de cuantización para rendir mejor en dispositivos más modestos.

Si lo que quieres es hacer lo mismo pero en un ordenador, las referencias son dos: Ollama y LM Studio. Con ellas es muy fácil tener una IA en local en tu PC. LM Studio tiene una interfaz visual muy amigable; Ollama es más técnico pero más flexible. Ambos son gratuitos y permiten ejecutar modelos de hasta 13B parámetros o más dependiendo del hardware del equipo.

En Xataka

Las herramientas para detectar textos hechos con IA son flojas nivel: creen que 'Cien años de soledad' es IA

Vale la pena, con maticesUna IA local en el móvil no sustituye a los grandes asistentes que conocemos, al menos por ahora. Para tareas complejas, documentos extensos o razonamientos sofisticados, las versiones de servidor siguen siendo superiores. Pero para el uso cotidiano (resolver una duda, resumir un párrafo, buscar ideas, traducir algo rápido o simplemente tener una conversación), los modelos pequeños hacen un trabajo más que digno. Eso sí, prepárate para las alucinaciones.

En Xataka | Decían que la IA generativa de vídeo acabaría con Hollywood. De momento la pelea está de parte de la tradición

– La noticia

Tener una IA en mi móvil que funciona sin conexión a Internet es más útil de lo que pensaba: así la puedes poner en marcha

fue publicada originalmente en

Xataka

por
Antonio Vallejo

.   

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *