Ciencia y Tecnología
Tener una IA en mi móvil que funciona sin conexión a Internet es más útil de lo que pensaba: así la puedes poner en marcha
<p>
 <img src="https://i.blogs.es/7ae55b/ia/1024_2000.jpeg" alt="Tener una IA en mi móvil que funciona sin conexión a Internet es más útil de lo que pensaba: así la puedes poner en marcha">
 </p>
<p>Además de todos los modelos de lenguaje para IA comerciales que tenemos a nuestra disposición (<a class="text-outboundlink" href="https://www.xataka.com/basics/chatgpt-que-como-usarlo-que-puedes-hacer-este-chat-inteligencia-artificial" data-vars-post-title="ChatGPT: qué es, cómo usarlo y qué puedes hacer con este chat de inteligencia artificial" data-vars-post-url="https://www.xataka.com/basics/chatgpt-que-como-usarlo-que-puedes-hacer-este-chat-inteligencia-artificial">ChatGPT</a>, <a class="text-outboundlink" href="https://www.xataka.com/basics/google-gemini-que-como-funciona-diferencias-gpt-cuando-podras-usar-este-modelo-inteligencia-artificial" data-vars-post-title="Google Gemini: qué es, cómo funciona, diferencias con GPT y cuándo podrás usar este modelo de inteligencia artificial" data-vars-post-url="https://www.xataka.com/basics/google-gemini-que-como-funciona-diferencias-gpt-cuando-podras-usar-este-modelo-inteligencia-artificial">Gemini</a>, <a class="text-outboundlink" href="https://www.xataka.com/basics/claude-que-como-funciona-que-mejor-que-no-que-chatgpt-competencia" data-vars-post-title="Claude: qué es, cómo funciona y en qué es mejor (y en qué no) que ChatGPT y la competencia " data-vars-post-url="https://www.xataka.com/basics/claude-que-como-funciona-que-mejor-que-no-que-chatgpt-competencia">Claude</a>, etc), existe todo un mundo de modelos de lenguaje de código abierto que nos pueden servir para un montón de aplicaciones, tanto a nivel doméstico, como empresarial. Llevo un buen tiempo trasteando con <a class="text-outboundlink" href="https://www.xataka.com/basics/llm-que-significa-que-se-puede-hacer-este-tipo-modelo-inteligencia-artificial" data-vars-post-title="LLM: qué es y qué se puede hacer con este tipo de modelo de lenguaje de aprendizaje profundo para inteligencia artificial" data-vars-post-url="https://www.xataka.com/basics/llm-que-significa-que-se-puede-hacer-este-tipo-modelo-inteligencia-artificial">LLMs</a> en local y la verdad es que tener uno funcionando sin necesidad de conexión a Internet nos puede venir francamente bien.</p>
<p><!-- BREAK 1 --></p>
<p>La cuestión es que <a class="text-outboundlink" href="https://www.xataka.com/basics/mejores-aplicaciones-para-tener-inteligencia-artificial-local-tu-movil-pc-necesitar-conexion-mayor-privacidad" data-vars-post-title="Las mejores aplicaciones para tener una inteligencia artificial local en tu móvil o PC, sin necesitar conexión y con mayor privacidad " data-vars-post-url="https://www.xataka.com/basics/mejores-aplicaciones-para-tener-inteligencia-artificial-local-tu-movil-pc-necesitar-conexion-mayor-privacidad">instalar un LLM en local</a> y en nuestro teléfono móvil es más sencillo de lo que parece. A día de hoy podemos encontrar herramientas muy fáciles de manejar y con una interfaz muy amigable para cualquier usuario. Encima, tampoco necesitas un smartphone con especificaciones técnicas muy elevadas para ejecutar un modelo chiquito. Bajo este texto te explico cómo hacerlo y qué sentido tiene tener una IA en local en tu móvil.</p>
<p><!-- BREAK 2 --></p>
<h2>Qué es PocketPal y qué sentido tiene tener una IA en local</h2>
<p>Una de las herramientas que lo hace posible se llama PocketPal AI, y lo mejor es que instalarla y ponerla en marcha <strong>no requiere conocimientos técnicos</strong>. La app es gratuita para <a rel="noopener, noreferrer" href="https://apps.apple.com/us/app/pocketpal-ai/id6502579498">iOS</a> y <a rel="noopener, noreferrer" href="https://play.google.com/store/apps/details?id=com.pocketpalai&;hl=en">Android</a> y permite instalar modelos de inteligencia artificial directamente en el teléfono móvil, de manera que el usuario puede utilizarlos sin conexión a Internet, con privacidad total y sin que sus conversaciones lleguen a servidores externos.</p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/wikipedia-ha-prohibido-usar-ia-para-escribir-reescribir-articulos-ingles-conocimiento-humano-empieza-a-levantar-barreras" class="pivot-outboundlink" data-vars-post-title="En un internet lleno de contenido artificial, Wikipedia tiene claro qué quiere ser: una reserva de contenido humano"><br />
 <img alt="En un internet lleno de contenido artificial, Wikipedia tiene claro qué quiere ser: una reserva de contenido humano" width="375" height="142" src="https://i.blogs.es/8b300d/wikipedia/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/wikipedia-ha-prohibido-usar-ia-para-escribir-reescribir-articulos-ingles-conocimiento-humano-empieza-a-levantar-barreras" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="En un internet lleno de contenido artificial, Wikipedia tiene claro qué quiere ser: una reserva de contenido humano">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/wikipedia-ha-prohibido-usar-ia-para-escribir-reescribir-articulos-ingles-conocimiento-humano-empieza-a-levantar-barreras" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="En un internet lleno de contenido artificial, Wikipedia tiene claro qué quiere ser: una reserva de contenido humano">En un internet lleno de contenido artificial, Wikipedia tiene claro qué quiere ser: una reserva de contenido humano</a>
 </div>
</p></div>
</p></div>
</div>
<p>La clave de todo esto está en hacer uso de versiones reducidas de algunos de los modelos de lenguaje que conocemos. Estos pequeños modelos están pensados para ejecutarse directamente en la CPU o GPU de un dispositivo de consumo. No tienen la misma capacidad de razonamiento que el modelo más avanzado de OpenAI o Anthropic, ya que eso ahora mismo sería imposible en el hardware de un teléfono, pero sí <strong>son suficientemente capaces para una gran variedad de tareas cotidianas</strong>: resumir textos, responder preguntas, traducir, ayudar a redactar, generar código sencillo o simplemente tener una conversación.</p>
<p><!-- BREAK 3 --></p>
<div class="article-asset-image article-asset-large article-asset-center">
<div class="asset-content">
<p> <img alt="Juntas Nuevo 1" class="" src="https://i.blogs.es/6cd4c1/juntas-nuevo-1/450_1000.jpeg"></p></div>
</div>
<p>La propuesta es útil en más situaciones de las que parece. Imagina que estás en el metro sin cobertura, en un viaje al extranjero sin datos o en una zona rural. Con una IA instalada localmente en el móvil <strong>tienes siempre a mano una especie de enciclopedia inteligente</strong>: alguien con quien consultar, pensar en voz alta o resolver dudas en el momento. Y lo que es igual de importante: con total privacidad. Todo el procesamiento ocurre íntegramente en el dispositivo. Las conversaciones, los prompts y los datos nunca salen del teléfono ni se almacenan en servidores externos.</p>
<p><!-- BREAK 4 --></p>
<h2>Qué móvil necesitas</h2>
<p>Antes de lanzarte a descargar la app, conviene revisar si tu dispositivo tiene lo necesario. Ejecutar un modelo de IA en local requiere que el dispositivo tenga una serie de especificaciones técnicas más o menos importantes, aunque tampoco hace falta que nos vayamos a la gama más alta de dispositivos para ejecutarlos. Yo mismo estoy usando PocketPal en un modesto, pero más que capaz <a class="text-outboundlink" href="https://www.xataka.com/analisis/oneplus-nord-2-5g-analisis-caracteristicas-precio-especificaciones" data-vars-post-title="OnePlus Nord 2 5G, análisis: un bastión de “superfluidez” con precio muy competitivo para su gama" data-vars-post-url="https://www.xataka.com/analisis/oneplus-nord-2-5g-analisis-caracteristicas-precio-especificaciones">OnePlus Nord 2</a>.</p>
<p>Los modelos de inteligencia artificial son archivos considerablemente grandes, por lo que se necesita cierto espacio de almacenamiento interno libre, y <strong>el procesamiento local demanda potencia de hardware</strong>. Pero vaya, con que tengas una cantidad de RAM considerable y una CPU que no de pena, vas sobrado.</p>
<p><!-- BREAK 5 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/eeuu-intento-tratar-a-anthropic-como-fuera-empresa-enemiga-negarse-a-armar-su-ia-jueza-acaba-frenarlo" class="pivot-outboundlink" data-vars-post-title='Anthropic afrontaba un largo invierno en la "lista negra" de EEUU: la justicia le ha salvado sobre la bocina'><br />
 <img alt='Anthropic afrontaba un largo invierno en la "lista negra" de EEUU: la justicia le ha salvado sobre la bocina' width="375" height="142" src="https://i.blogs.es/256d82/anthropic/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/eeuu-intento-tratar-a-anthropic-como-fuera-empresa-enemiga-negarse-a-armar-su-ia-jueza-acaba-frenarlo" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title='Anthropic afrontaba un largo invierno en la "lista negra" de EEUU: la justicia le ha salvado sobre la bocina'>En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/eeuu-intento-tratar-a-anthropic-como-fuera-empresa-enemiga-negarse-a-armar-su-ia-jueza-acaba-frenarlo" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title='Anthropic afrontaba un largo invierno en la "lista negra" de EEUU: la justicia le ha salvado sobre la bocina'>Anthropic afrontaba un largo invierno en la "lista negra" de EEUU: la justicia le ha salvado sobre la bocina</a>
 </div>
</p></div>
</p></div>
</div>
<p>Los requisitos varían mucho según el modelo que quieras instalar, pero como orientación general:</p>
<ul>
<li><strong>RAM</strong>: Mínimo 6 GB para modelos pequeños (1-3B parámetros). Para modelos medianos de 7B parámetros, conviene tener al menos 8 GB.</li>
<li>Almacenamiento libre: Entre 2 y 5 GB para los modelos más ligeros. Un modelo de PocketPal AI suele ocupar entre 1 y 4 GB por instalación.</li>
<li><strong>Procesador</strong>: Cualquier gama media-alta de los últimos cuatro o cinco años funciona. Para modelos más exigentes y con más parámetros sí se recomienda un procesador bien potente.</li>
<li><strong>Sistema operativo</strong>: para usar PocketPal específicamente se requiere Android 7.0 (Nougat) o superior en Android, y está disponible también para iPhone a partir de iOS 15.1.</li>
</ul>
<p>La buena noticia es que los modelos más ligeros, como Qwen2.5-1.5B, <strong>pueden funcionar incluso en dispositivos más modestos</strong>. El propio equipo de PocketPal lo recomienda como punto de partida. La cosa es ir probando. Yo por ejemplo instalé Qwen3-4B y me va bastante bien en un teléfono de gama media de hace 5 años.</p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<h2>Cómo instalar PocketPal paso a paso</h2>
<p>Para tener PocketPal funcionando correctamente en tu móvil no tienes que hacer mucho. Bajo estas líneas te contamos cómo hacerlo paso a paso:</p>
<p><strong>1. Descarga la app</strong></p>
<p>PocketPal AI está disponible tanto en la Play Store de Android como en la App Store de Apple. Enlaces para <a rel="noopener, noreferrer" href="https://play.google.com/store/apps/details?id=com.pocketpalai&;hl=en">Android</a> y para <a rel="noopener, noreferrer" href="https://apps.apple.com/us/app/pocketpal-ai/id6502579498">iOS</a>.</p>
<p><strong>2. Descarga un modelo de IA</strong></p>
<p>Una vez dentro, la aplicación te pedirá que descargues un modelo para empezar. En ‘Models’ aparece un listado de los modelos disponibles. En esa lista no encontrarás nombres como Gemini o GPT, que son modelos propietarios. En su lugar verás sus versiones de código abierto: <a class="text-outboundlink" href="https://www.xataka.com/basics/google-gemma-que-que-se-diferencia-sirve-este-nuevo-modelo-inteligencia-artificial" data-vars-post-title="Google Gemma: qué es, en qué se diferencia, y para qué sirve este nuevo modelo de inteligencia artificial " data-vars-post-url="https://www.xataka.com/basics/google-gemma-que-que-se-diferencia-sirve-este-nuevo-modelo-inteligencia-artificial">Gemma</a> es la versión abierta de Gemini de Google; <a class="text-outboundlink" href="https://www.xataka.com/basics/que-llama-como-funciona-que-sabemos-inteligencia-artificial-meta" data-vars-post-title="Qué es LLaMA, cómo funciona y qué sabemos de la inteligencia artificial de Meta
" data-vars-post-url="https://www.xataka.com/basics/que-llama-como-funciona-que-sabemos-inteligencia-artificial-meta">Llama</a> es el modelo de Meta, la misma IA que usan WhatsApp e Instagram; <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/microsoft-lanza-phi-3-pequeno-modelo-ia-que-corre-problemas-dispositivo-sorpresa-iphone-15" data-vars-post-title="Microsoft lanza Phi-3, un pequeño modelo de IA que corre sin problemas en un dispositivo sorpresa: el iPhone 15 " data-vars-post-url="https://www.xataka.com/robotica-e-ia/microsoft-lanza-phi-3-pequeno-modelo-ia-que-corre-problemas-dispositivo-sorpresa-iphone-15">Phi</a> es el modelo abierto de Microsoft; y <a class="text-outboundlink" href="https://www.xataka.com/basics/qwen-que-como-usar-inteligencia-artificial-alibaba-gratis-tener-que-pagar-cuotas" data-vars-post-title="Qwen: qué es y cómo usar la inteligencia artificial de Alibaba gratis sin tener que pagar cuotas" data-vars-post-url="https://www.xataka.com/basics/qwen-que-como-usar-inteligencia-artificial-alibaba-gratis-tener-que-pagar-cuotas">Qwen</a> es de Alibaba, entre otros.</p>
<p><!-- BREAK 6 --></p>
<div class="article-asset-image article-asset-large article-asset-center">
<div class="asset-content">
<p> <img alt="Juntas Nuevo 2" class="" src="https://i.blogs.es/262ba2/juntas-nuevo-2/450_1000.jpeg"></p></div>
</div>
<p>Si eres nuevo y quieres probar, quizás uno de los más recomendables y ligeritos es Qwen2.5-1.5B. Da buenos resultados para consultas sencillas y es bastante rápido (si el hardware de tu teléfono está más o menos a la altura). Si tu móvil tiene más de 6 GB de RAM y espacio libre de sobra, puedes probar modelos de 3B-4B parámetros como Llama 3.2 3B, que ofrece respuestas más elaboradas.</p>
<p><!-- BREAK 7 --></p>
<p>Lo bueno es que también <strong>tienes todo el repositorio de Hugging Face</strong> para probar pulsando el botón de la esquina inferior derecha. Aquí podemos instalar directamente desde Hugging Face cualquier modelo, como por ejemplo Qwen3-4B-Instruct, que es el que instalé yo en el Nord 2, o probar con otros de DeepSeek o Mistral. Todo funciona desde la app, sin salir de ella.</p>
<p><!-- BREAK 8 --></p>
<p><strong>Importante</strong>: la descarga del modelo sí requiere conexión a Internet. Solo hay que estar conectado en ese primer momento. A partir de ahí, todo funciona en local.</p>
<p><!-- BREAK 9 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/centros-datos-se-han-comido-ram-mundial-ahora-amenazan-comerse-baterias" class="pivot-outboundlink" data-vars-post-title="No contenta con reventar la demanda y los precios de la RAM, la IA ya apunta a otra víctima: las baterías"><br />
 <img alt="No contenta con reventar la demanda y los precios de la RAM, la IA ya apunta a otra víctima: las baterías" width="375" height="142" src="https://i.blogs.es/1c6bcb/image-4/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/centros-datos-se-han-comido-ram-mundial-ahora-amenazan-comerse-baterias" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="No contenta con reventar la demanda y los precios de la RAM, la IA ya apunta a otra víctima: las baterías">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/centros-datos-se-han-comido-ram-mundial-ahora-amenazan-comerse-baterias" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="No contenta con reventar la demanda y los precios de la RAM, la IA ya apunta a otra víctima: las baterías">No contenta con reventar la demanda y los precios de la RAM, la IA ya apunta a otra víctima: las baterías</a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>3. Carga el modelo y empieza a chatear</strong></p>
<p>Una vez descargado, pulsa sobre el modelo para cargarlo en memoria. Después, ve a la sección de Chat, escribe tu mensaje y la IA responderá procesándolo íntegramente en tu teléfono. Puedes verificarlo desactivando el WiFi y los datos.</p>
<p><!-- BREAK 10 --></p>
<h2>Qué rendimiento puedes esperar</h2>
<p>Conviene ser realista. Una IA local en el móvil no es ChatGPT. Las respuestas <strong>llegarán más despacio y el teléfono se calentará un poco más</strong> de lo habitual por el uso intensivo del procesador. Los modelos generan entre 5 y 20 tokens por segundo en móviles de gama alta, suficiente para mantener una conversación fluida, pero lejos de la velocidad de un servidor con GPU.</p>
<div class="article-asset-image article-asset-large article-asset-center">
<div class="asset-content">
<p> <img alt="Juntas Nuevo 3" class="" src="https://i.blogs.es/4d5708/juntas-nuevo-3/450_1000.jpeg"></p></div>
</div>
<p>Para sacarle más rendimiento en iPhone, está la opción de activar Metal, la API de aceleración de hardware de Apple y aumentar el parámetro "Layers on GPU" hasta alrededor de 80. Con este cambio, iOS traslada parte del procesamiento de la CPU a la GPU del dispositivo, lo que acelera notablemente la generación de texto. En algunos dispositivos recientes, activar también la opción de ‘Flash Attention’ puede añadir una mejora adicional.</p>
<p><!-- BREAK 11 --></p>
<p>En cuanto al tamaño de los archivos que funcionan mejor, el punto óptimo en smartphones y tablets es usar <strong>modelos de formato .gguf de aproximadamente 4 GB</strong>. Por encima de esa cifra la cosa se ralentiza significativamente.</p>
<p><!-- BREAK 12 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/amazon-usaba-robots-a-bestia-ahora-tiene-robot-humanoide-42-pulgadas-que-baila-recoge-juguetes-suelo" class="pivot-outboundlink" data-vars-post-title="Amazon cree que disponer de un robot recogiendo cosas, doblando ropa y jugando con tu perro tiene precio: 50.000 dólares"><br />
 <img alt="Amazon cree que disponer de un robot recogiendo cosas, doblando ropa y jugando con tu perro tiene precio: 50.000 dólares" width="375" height="142" src="https://i.blogs.es/cf58ef/sprout1/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/amazon-usaba-robots-a-bestia-ahora-tiene-robot-humanoide-42-pulgadas-que-baila-recoge-juguetes-suelo" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Amazon cree que disponer de un robot recogiendo cosas, doblando ropa y jugando con tu perro tiene precio: 50.000 dólares">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/amazon-usaba-robots-a-bestia-ahora-tiene-robot-humanoide-42-pulgadas-que-baila-recoge-juguetes-suelo" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Amazon cree que disponer de un robot recogiendo cosas, doblando ropa y jugando con tu perro tiene precio: 50.000 dólares">Amazon cree que disponer de un robot recogiendo cosas, doblando ropa y jugando con tu perro tiene precio: 50.000 dólares</a>
 </div>
</p></div>
</p></div>
</div>
<h2>PocketPal no es la única opción</h2>
<p>PocketPal es probablemente la app más accesible para empezar, pero también tenemos <a class="text-outboundlink" href="https://www.xataka.com/basics/mejores-aplicaciones-para-tener-inteligencia-artificial-local-tu-movil-pc-necesitar-conexion-mayor-privacidad" data-vars-post-title="Las mejores aplicaciones para tener una inteligencia artificial local en tu móvil o PC, sin necesitar conexión y con mayor privacidad " data-vars-post-url="https://www.xataka.com/basics/mejores-aplicaciones-para-tener-inteligencia-artificial-local-tu-movil-pc-necesitar-conexion-mayor-privacidad">otras alternativas</a>. En Android destaca también MNN Chat, con soporte multimodal. Para quienes usan iPhone también tienen Private LLM, aunque es de pago e incluye modelos optimizados aprovechando técnicas de cuantización para rendir mejor en dispositivos más modestos.</p>
<p>Si lo que quieres es hacer lo mismo pero en un ordenador, las referencias son dos: <a class="text-outboundlink" href="https://www.xataka.com/basics/que-ollama-como-usarlo-para-instalar-tu-ordenador-modelos-inteligencia-artificial-como-llama-deepseek" data-vars-post-title="Qué es Ollama y cómo usarlo para instalar en tu ordenador modelos de inteligencia artificial como Llama, DeepSeek y más" data-vars-post-url="https://www.xataka.com/basics/que-ollama-como-usarlo-para-instalar-tu-ordenador-modelos-inteligencia-artificial-como-llama-deepseek">Ollama</a> y <a rel="noopener, noreferrer" href="https://lmstudio.ai/">LM Studio</a>. Con ellas es muy fácil tener una IA en local en tu PC. LM Studio tiene una interfaz visual muy amigable; Ollama es más técnico pero más flexible. Ambos son gratuitos y permiten ejecutar modelos de hasta 13B parámetros o más dependiendo del hardware del equipo.</p>
<p><!-- BREAK 13 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/escribir-bien-sospechoso-detectores-ia-marcan-biblia-cien-anos-soledad-como-obras-hechas-maquinas" class="pivot-outboundlink" data-vars-post-title="Las herramientas para detectar textos hechos con IA son flojas nivel: creen que 'Cien años de soledad' es IA"><br />
 <img alt="Las herramientas para detectar textos hechos con IA son flojas nivel: creen que 'Cien años de soledad' es IA" width="375" height="142" src="https://i.blogs.es/5b09ea/detector/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/escribir-bien-sospechoso-detectores-ia-marcan-biblia-cien-anos-soledad-como-obras-hechas-maquinas" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Las herramientas para detectar textos hechos con IA son flojas nivel: creen que 'Cien años de soledad' es IA">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/escribir-bien-sospechoso-detectores-ia-marcan-biblia-cien-anos-soledad-como-obras-hechas-maquinas" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Las herramientas para detectar textos hechos con IA son flojas nivel: creen que 'Cien años de soledad' es IA">Las herramientas para detectar textos hechos con IA son flojas nivel: creen que 'Cien años de soledad' es IA</a>
 </div>
</p></div>
</p></div>
</div>
<h2>Vale la pena, con matices</h2>
<p>Una IA local en el móvil <strong>no sustituye a los grandes asistentes que conocemos</strong>, al menos por ahora. Para tareas complejas, documentos extensos o razonamientos sofisticados, las versiones de servidor siguen siendo superiores. Pero para el uso cotidiano (resolver una duda, resumir un párrafo, buscar ideas, traducir algo rápido o simplemente tener una conversación), los modelos pequeños hacen un trabajo más que digno. Eso sí, prepárate para las alucinaciones.</p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/cuando-se-lanzo-sora-muchos-asumieron-que-era-muerte-hollywood-solo-dos-anos-despues-sora-no-existe" data-vars-post-title="Decían que la IA generativa de vídeo acabaría con Hollywood. De momento la pelea está de parte de la tradición " data-vars-post-url="https://www.xataka.com/robotica-e-ia/cuando-se-lanzo-sora-muchos-asumieron-que-era-muerte-hollywood-solo-dos-anos-despues-sora-no-existe">Decían que la IA generativa de vídeo acabaría con Hollywood. De momento la pelea está de parte de la tradición</a></p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/tener-ia-mi-movil-que-funciona-conexion-a-internet-util-que-pensaba-asi-puedes-poner-marcha-facil?utm_source=feedburner&;utm_medium=feed&;utm_campaign=05_Apr_2026"><br />
 <em> Tener una IA en mi móvil que funciona sin conexión a Internet es más útil de lo que pensaba: así la puedes poner en marcha </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=05_Apr_2026"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/antonio-vallejo-taslimi?utm_source=feedburner&;utm_medium=feed&;utm_campaign=05_Apr_2026"><br />
 Antonio Vallejo<br />
 </a><br />
 . </p>
<p> Además de todos los modelos de lenguaje para IA comerciales que tenemos a nuestra disposición (ChatGPT, Gemini, Claude, etc), existe todo un mundo de modelos de lenguaje de código abierto que nos pueden servir para un montón de aplicaciones, tanto a nivel doméstico, como empresarial. Llevo un buen tiempo trasteando con LLMs en local y la verdad es que tener uno funcionando sin necesidad de conexión a Internet nos puede venir francamente bien.</p>
<p>La cuestión es que instalar un LLM en local y en nuestro teléfono móvil es más sencillo de lo que parece. A día de hoy podemos encontrar herramientas muy fáciles de manejar y con una interfaz muy amigable para cualquier usuario. Encima, tampoco necesitas un smartphone con especificaciones técnicas muy elevadas para ejecutar un modelo chiquito. Bajo este texto te explico cómo hacerlo y qué sentido tiene tener una IA en local en tu móvil.</p>
<p>Qué es PocketPal y qué sentido tiene tener una IA en localUna de las herramientas que lo hace posible se llama PocketPal AI, y lo mejor es que instalarla y ponerla en marcha no requiere conocimientos técnicos. La app es gratuita para iOS y Android y permite instalar modelos de inteligencia artificial directamente en el teléfono móvil, de manera que el usuario puede utilizarlos sin conexión a Internet, con privacidad total y sin que sus conversaciones lleguen a servidores externos.</p>
<p> En Xataka</p>
<p> En un internet lleno de contenido artificial, Wikipedia tiene claro qué quiere ser: una reserva de contenido humano</p>
<p>La clave de todo esto está en hacer uso de versiones reducidas de algunos de los modelos de lenguaje que conocemos. Estos pequeños modelos están pensados para ejecutarse directamente en la CPU o GPU de un dispositivo de consumo. No tienen la misma capacidad de razonamiento que el modelo más avanzado de OpenAI o Anthropic, ya que eso ahora mismo sería imposible en el hardware de un teléfono, pero sí son suficientemente capaces para una gran variedad de tareas cotidianas: resumir textos, responder preguntas, traducir, ayudar a redactar, generar código sencillo o simplemente tener una conversación.</p>
<p>La propuesta es útil en más situaciones de las que parece. Imagina que estás en el metro sin cobertura, en un viaje al extranjero sin datos o en una zona rural. Con una IA instalada localmente en el móvil tienes siempre a mano una especie de enciclopedia inteligente: alguien con quien consultar, pensar en voz alta o resolver dudas en el momento. Y lo que es igual de importante: con total privacidad. Todo el procesamiento ocurre íntegramente en el dispositivo. Las conversaciones, los prompts y los datos nunca salen del teléfono ni se almacenan en servidores externos.</p>
<p>Qué móvil necesitasAntes de lanzarte a descargar la app, conviene revisar si tu dispositivo tiene lo necesario. Ejecutar un modelo de IA en local requiere que el dispositivo tenga una serie de especificaciones técnicas más o menos importantes, aunque tampoco hace falta que nos vayamos a la gama más alta de dispositivos para ejecutarlos. Yo mismo estoy usando PocketPal en un modesto, pero más que capaz OnePlus Nord 2.</p>
<p>Los modelos de inteligencia artificial son archivos considerablemente grandes, por lo que se necesita cierto espacio de almacenamiento interno libre, y el procesamiento local demanda potencia de hardware. Pero vaya, con que tengas una cantidad de RAM considerable y una CPU que no de pena, vas sobrado.</p>
<p> En Xataka</p>
<p> Anthropic afrontaba un largo invierno en la "lista negra" de EEUU: la justicia le ha salvado sobre la bocina</p>
<p>Los requisitos varían mucho según el modelo que quieras instalar, pero como orientación general:</p>
<p>RAM: Mínimo 6 GB para modelos pequeños (1-3B parámetros). Para modelos medianos de 7B parámetros, conviene tener al menos 8 GB.Almacenamiento libre: Entre 2 y 5 GB para los modelos más ligeros. Un modelo de PocketPal AI suele ocupar entre 1 y 4 GB por instalación.Procesador: Cualquier gama media-alta de los últimos cuatro o cinco años funciona. Para modelos más exigentes y con más parámetros sí se recomienda un procesador bien potente.Sistema operativo: para usar PocketPal específicamente se requiere Android 7.0 (Nougat) o superior en Android, y está disponible también para iPhone a partir de iOS 15.1.La buena noticia es que los modelos más ligeros, como Qwen2.5-1.5B, pueden funcionar incluso en dispositivos más modestos. El propio equipo de PocketPal lo recomienda como punto de partida. La cosa es ir probando. Yo por ejemplo instalé Qwen3-4B y me va bastante bien en un teléfono de gama media de hace 5 años.</p>
<p>Cómo instalar PocketPal paso a pasoPara tener PocketPal funcionando correctamente en tu móvil no tienes que hacer mucho. Bajo estas líneas te contamos cómo hacerlo paso a paso:</p>
<p>1. Descarga la app</p>
<p>PocketPal AI está disponible tanto en la Play Store de Android como en la App Store de Apple. Enlaces para Android y para iOS.</p>
<p>2. Descarga un modelo de IA</p>
<p>Una vez dentro, la aplicación te pedirá que descargues un modelo para empezar. En ‘Models’ aparece un listado de los modelos disponibles. En esa lista no encontrarás nombres como Gemini o GPT, que son modelos propietarios. En su lugar verás sus versiones de código abierto: Gemma es la versión abierta de Gemini de Google; Llama es el modelo de Meta, la misma IA que usan WhatsApp e Instagram; Phi es el modelo abierto de Microsoft; y Qwen es de Alibaba, entre otros.</p>
<p>Si eres nuevo y quieres probar, quizás uno de los más recomendables y ligeritos es Qwen2.5-1.5B. Da buenos resultados para consultas sencillas y es bastante rápido (si el hardware de tu teléfono está más o menos a la altura). Si tu móvil tiene más de 6 GB de RAM y espacio libre de sobra, puedes probar modelos de 3B-4B parámetros como Llama 3.2 3B, que ofrece respuestas más elaboradas.</p>
<p>Lo bueno es que también tienes todo el repositorio de Hugging Face para probar pulsando el botón de la esquina inferior derecha. Aquí podemos instalar directamente desde Hugging Face cualquier modelo, como por ejemplo Qwen3-4B-Instruct, que es el que instalé yo en el Nord 2, o probar con otros de DeepSeek o Mistral. Todo funciona desde la app, sin salir de ella.</p>
<p>Importante: la descarga del modelo sí requiere conexión a Internet. Solo hay que estar conectado en ese primer momento. A partir de ahí, todo funciona en local.</p>
<p> En Xataka</p>
<p> No contenta con reventar la demanda y los precios de la RAM, la IA ya apunta a otra víctima: las baterías</p>
<p>3. Carga el modelo y empieza a chatear</p>
<p>Una vez descargado, pulsa sobre el modelo para cargarlo en memoria. Después, ve a la sección de Chat, escribe tu mensaje y la IA responderá procesándolo íntegramente en tu teléfono. Puedes verificarlo desactivando el WiFi y los datos.</p>
<p>Qué rendimiento puedes esperarConviene ser realista. Una IA local en el móvil no es ChatGPT. Las respuestas llegarán más despacio y el teléfono se calentará un poco más de lo habitual por el uso intensivo del procesador. Los modelos generan entre 5 y 20 tokens por segundo en móviles de gama alta, suficiente para mantener una conversación fluida, pero lejos de la velocidad de un servidor con GPU.</p>
<p>Para sacarle más rendimiento en iPhone, está la opción de activar Metal, la API de aceleración de hardware de Apple y aumentar el parámetro "Layers on GPU" hasta alrededor de 80. Con este cambio, iOS traslada parte del procesamiento de la CPU a la GPU del dispositivo, lo que acelera notablemente la generación de texto. En algunos dispositivos recientes, activar también la opción de ‘Flash Attention’ puede añadir una mejora adicional.</p>
<p>En cuanto al tamaño de los archivos que funcionan mejor, el punto óptimo en smartphones y tablets es usar modelos de formato .gguf de aproximadamente 4 GB. Por encima de esa cifra la cosa se ralentiza significativamente.</p>
<p> En Xataka</p>
<p> Amazon cree que disponer de un robot recogiendo cosas, doblando ropa y jugando con tu perro tiene precio: 50.000 dólares</p>
<p>PocketPal no es la única opciónPocketPal es probablemente la app más accesible para empezar, pero también tenemos otras alternativas. En Android destaca también MNN Chat, con soporte multimodal. Para quienes usan iPhone también tienen Private LLM, aunque es de pago e incluye modelos optimizados aprovechando técnicas de cuantización para rendir mejor en dispositivos más modestos.</p>
<p>Si lo que quieres es hacer lo mismo pero en un ordenador, las referencias son dos: Ollama y LM Studio. Con ellas es muy fácil tener una IA en local en tu PC. LM Studio tiene una interfaz visual muy amigable; Ollama es más técnico pero más flexible. Ambos son gratuitos y permiten ejecutar modelos de hasta 13B parámetros o más dependiendo del hardware del equipo.</p>
<p> En Xataka</p>
<p> Las herramientas para detectar textos hechos con IA son flojas nivel: creen que 'Cien años de soledad' es IA</p>
<p>Vale la pena, con maticesUna IA local en el móvil no sustituye a los grandes asistentes que conocemos, al menos por ahora. Para tareas complejas, documentos extensos o razonamientos sofisticados, las versiones de servidor siguen siendo superiores. Pero para el uso cotidiano (resolver una duda, resumir un párrafo, buscar ideas, traducir algo rápido o simplemente tener una conversación), los modelos pequeños hacen un trabajo más que digno. Eso sí, prepárate para las alucinaciones.</p>
<p>En Xataka | Decían que la IA generativa de vídeo acabaría con Hollywood. De momento la pelea está de parte de la tradición</p>
<p> &#8211; La noticia</p>
<p> Tener una IA en mi móvil que funciona sin conexión a Internet es más útil de lo que pensaba: así la puedes poner en marcha </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Antonio Vallejo</p>
<p> . </p>