{"id":12625,"date":"2026-04-05T06:00:56","date_gmt":"2026-04-05T10:00:56","guid":{"rendered":"https:\/\/ermdigital.com\/index.php\/2026\/04\/05\/tener-una-ia-en-mi-movil-que-funciona-sin-conexion-a-internet-es-mas-util-de-lo-que-pensaba-asi-la-puedes-poner-en-marcha\/"},"modified":"2026-04-05T06:00:56","modified_gmt":"2026-04-05T10:00:56","slug":"tener-una-ia-en-mi-movil-que-funciona-sin-conexion-a-internet-es-mas-util-de-lo-que-pensaba-asi-la-puedes-poner-en-marcha","status":"publish","type":"post","link":"https:\/\/ermdigital.com\/index.php\/2026\/04\/05\/tener-una-ia-en-mi-movil-que-funciona-sin-conexion-a-internet-es-mas-util-de-lo-que-pensaba-asi-la-puedes-poner-en-marcha\/","title":{"rendered":"Tener una IA en mi m\u00f3vil que funciona sin conexi\u00f3n a Internet es m\u00e1s \u00fatil de lo que pensaba: as\u00ed la puedes poner en marcha"},"content":{"rendered":"<p>\n      <img decoding=\"async\" src=\"https:\/\/i.blogs.es\/7ae55b\/ia\/1024_2000.jpeg\" alt=\"Tener una IA en mi m\u00f3vil que funciona sin conexi\u00f3n a Internet es m\u00e1s \u00fatil de lo que pensaba: as\u00ed la puedes poner en marcha\">\n    <\/p>\n<p>Adem\u00e1s de todos los modelos de lenguaje para IA comerciales que tenemos a nuestra disposici\u00f3n (<a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/basics\/chatgpt-que-como-usarlo-que-puedes-hacer-este-chat-inteligencia-artificial\" data-vars-post-title=\"ChatGPT: qu\u00e9 es, c\u00f3mo usarlo y qu\u00e9 puedes hacer con este chat de inteligencia artificial\" data-vars-post-url=\"https:\/\/www.xataka.com\/basics\/chatgpt-que-como-usarlo-que-puedes-hacer-este-chat-inteligencia-artificial\">ChatGPT<\/a>, <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/basics\/google-gemini-que-como-funciona-diferencias-gpt-cuando-podras-usar-este-modelo-inteligencia-artificial\" data-vars-post-title=\"Google Gemini: qu\u00e9 es, c\u00f3mo funciona, diferencias con GPT y cu\u00e1ndo podr\u00e1s usar este modelo de inteligencia artificial\" data-vars-post-url=\"https:\/\/www.xataka.com\/basics\/google-gemini-que-como-funciona-diferencias-gpt-cuando-podras-usar-este-modelo-inteligencia-artificial\">Gemini<\/a>, <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/basics\/claude-que-como-funciona-que-mejor-que-no-que-chatgpt-competencia\" data-vars-post-title=\"Claude: qu\u00e9 es, c\u00f3mo funciona y en qu\u00e9 es mejor (y en qu\u00e9 no) que ChatGPT y la competencia \" data-vars-post-url=\"https:\/\/www.xataka.com\/basics\/claude-que-como-funciona-que-mejor-que-no-que-chatgpt-competencia\">Claude<\/a>, etc), existe todo un mundo de modelos de lenguaje de c\u00f3digo abierto que nos pueden servir para un mont\u00f3n de aplicaciones, tanto a nivel dom\u00e9stico, como empresarial. Llevo un buen tiempo trasteando con <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/basics\/llm-que-significa-que-se-puede-hacer-este-tipo-modelo-inteligencia-artificial\" data-vars-post-title=\"LLM: qu\u00e9 es y qu\u00e9 se puede hacer con este tipo de modelo de lenguaje de aprendizaje profundo para inteligencia artificial\" data-vars-post-url=\"https:\/\/www.xataka.com\/basics\/llm-que-significa-que-se-puede-hacer-este-tipo-modelo-inteligencia-artificial\">LLMs<\/a> en local y la verdad es que tener uno funcionando sin necesidad de conexi\u00f3n a Internet nos puede venir francamente bien.<\/p>\n<p><!-- BREAK 1 --><\/p>\n<p>La cuesti\u00f3n es que <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/basics\/mejores-aplicaciones-para-tener-inteligencia-artificial-local-tu-movil-pc-necesitar-conexion-mayor-privacidad\" data-vars-post-title=\"Las mejores aplicaciones para tener una inteligencia artificial local en tu m\u00f3vil o PC, sin necesitar conexi\u00f3n y con mayor privacidad \" data-vars-post-url=\"https:\/\/www.xataka.com\/basics\/mejores-aplicaciones-para-tener-inteligencia-artificial-local-tu-movil-pc-necesitar-conexion-mayor-privacidad\">instalar un LLM en local<\/a> y en nuestro tel\u00e9fono m\u00f3vil es m\u00e1s sencillo de lo que parece. A d\u00eda de hoy podemos encontrar herramientas muy f\u00e1ciles de manejar y con una interfaz muy amigable para cualquier usuario. Encima, tampoco necesitas un smartphone con especificaciones t\u00e9cnicas muy elevadas para ejecutar un modelo chiquito. Bajo este texto te explico c\u00f3mo hacerlo y qu\u00e9 sentido tiene tener una IA en local en tu m\u00f3vil.<\/p>\n<p><!-- BREAK 2 --><\/p>\n<h2>Qu\u00e9 es PocketPal y qu\u00e9 sentido tiene tener una IA en local<\/h2>\n<p>Una de las herramientas que lo hace posible se llama PocketPal AI, y lo mejor es que instalarla y ponerla en marcha <strong>no requiere conocimientos t\u00e9cnicos<\/strong>. La app es gratuita para <a rel=\"noopener, noreferrer\" href=\"https:\/\/apps.apple.com\/us\/app\/pocketpal-ai\/id6502579498\">iOS<\/a> y <a rel=\"noopener, noreferrer\" href=\"https:\/\/play.google.com\/store\/apps\/details?id=com.pocketpalai&amp;hl=en\">Android<\/a> y permite instalar modelos de inteligencia artificial directamente en el tel\u00e9fono m\u00f3vil, de manera que el usuario puede utilizarlos sin conexi\u00f3n a Internet, con privacidad total y sin que sus conversaciones lleguen a servidores externos.<\/p>\n<div class=\"article-asset article-asset-normal article-asset-center\">\n<div class=\"desvio-container\">\n<div class=\"desvio\">\n<div class=\"desvio-figure js-desvio-figure\">\n    <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/wikipedia-ha-prohibido-usar-ia-para-escribir-reescribir-articulos-ingles-conocimiento-humano-empieza-a-levantar-barreras\" class=\"pivot-outboundlink\" data-vars-post-title=\"En un internet lleno de contenido artificial, Wikipedia tiene claro qu\u00e9 quiere ser: una reserva de contenido humano\"><br \/>\n     <img loading=\"lazy\" decoding=\"async\" alt=\"En un internet lleno de contenido artificial, Wikipedia tiene claro qu\u00e9 quiere ser: una reserva de contenido humano\" width=\"375\" height=\"142\" src=\"https:\/\/i.blogs.es\/8b300d\/wikipedia\/375_142.jpeg\"><br \/>\n    <\/a>\n   <\/div>\n<div class=\"desvio-summary\">\n<div class=\"desvio-taxonomy js-desvio-taxonomy\">\n     <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/wikipedia-ha-prohibido-usar-ia-para-escribir-reescribir-articulos-ingles-conocimiento-humano-empieza-a-levantar-barreras\" class=\"desvio-taxonomy-anchor pivot-outboundlink\" data-vars-post-title=\"En un internet lleno de contenido artificial, Wikipedia tiene claro qu\u00e9 quiere ser: una reserva de contenido humano\">En Xataka<\/a>\n    <\/div>\n<p>    <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/wikipedia-ha-prohibido-usar-ia-para-escribir-reescribir-articulos-ingles-conocimiento-humano-empieza-a-levantar-barreras\" class=\"desvio-title js-desvio-title pivot-outboundlink\" data-vars-post-title=\"En un internet lleno de contenido artificial, Wikipedia tiene claro qu\u00e9 quiere ser: una reserva de contenido humano\">En un internet lleno de contenido artificial, Wikipedia tiene claro qu\u00e9 quiere ser: una reserva de contenido humano<\/a>\n   <\/div>\n<\/p><\/div>\n<\/p><\/div>\n<\/div>\n<p>La clave de todo esto est\u00e1 en hacer uso de versiones reducidas de algunos de los modelos de lenguaje que conocemos. Estos peque\u00f1os modelos est\u00e1n pensados para ejecutarse directamente en la CPU o GPU de un dispositivo de consumo. No tienen la misma capacidad de razonamiento que el modelo m\u00e1s avanzado de OpenAI o Anthropic, ya que eso ahora mismo ser\u00eda imposible en el hardware de un tel\u00e9fono, pero s\u00ed <strong>son suficientemente capaces para una gran variedad de tareas cotidianas<\/strong>: resumir textos, responder preguntas, traducir, ayudar a redactar, generar c\u00f3digo sencillo o simplemente tener una conversaci\u00f3n.<\/p>\n<p><!-- BREAK 3 --><\/p>\n<div class=\"article-asset-image article-asset-large article-asset-center\">\n<div class=\"asset-content\">\n<p>   <img decoding=\"async\" alt=\"Juntas Nuevo 1\" class=\"\" src=\"https:\/\/i.blogs.es\/6cd4c1\/juntas-nuevo-1\/450_1000.jpeg\"><\/p><\/div>\n<\/div>\n<p>La propuesta es \u00fatil en m\u00e1s situaciones de las que parece. Imagina que est\u00e1s en el metro sin cobertura, en un viaje al extranjero sin datos o en una zona rural. Con una IA instalada localmente en el m\u00f3vil <strong>tienes siempre a mano una especie de enciclopedia inteligente<\/strong>: alguien con quien consultar, pensar en voz alta o resolver dudas en el momento. Y lo que es igual de importante: con total privacidad. Todo el procesamiento ocurre \u00edntegramente en el dispositivo. Las conversaciones, los prompts y los datos nunca salen del tel\u00e9fono ni se almacenan en servidores externos.<\/p>\n<p><!-- BREAK 4 --><\/p>\n<h2>Qu\u00e9 m\u00f3vil necesitas<\/h2>\n<p>Antes de lanzarte a descargar la app, conviene revisar si tu dispositivo tiene lo necesario. Ejecutar un modelo de IA en local requiere que el dispositivo tenga una serie de especificaciones t\u00e9cnicas m\u00e1s o menos importantes, aunque tampoco hace falta que nos vayamos a la gama m\u00e1s alta de dispositivos para ejecutarlos. Yo mismo estoy usando PocketPal en un modesto, pero m\u00e1s que capaz <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/analisis\/oneplus-nord-2-5g-analisis-caracteristicas-precio-especificaciones\" data-vars-post-title=\"OnePlus Nord 2 5G, an\u00e1lisis: un basti\u00f3n de \u201csuperfluidez\u201d con precio muy competitivo para su gama\" data-vars-post-url=\"https:\/\/www.xataka.com\/analisis\/oneplus-nord-2-5g-analisis-caracteristicas-precio-especificaciones\">OnePlus Nord 2<\/a>.<\/p>\n<p>Los modelos de inteligencia artificial son archivos considerablemente grandes, por lo que se necesita cierto espacio de almacenamiento interno libre, y <strong>el procesamiento local demanda potencia de hardware<\/strong>. Pero vaya, con que tengas una cantidad de RAM considerable y una CPU que no de pena, vas sobrado.<\/p>\n<p><!-- BREAK 5 --><\/p>\n<div class=\"article-asset article-asset-normal article-asset-center\">\n<div class=\"desvio-container\">\n<div class=\"desvio\">\n<div class=\"desvio-figure js-desvio-figure\">\n    <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/eeuu-intento-tratar-a-anthropic-como-fuera-empresa-enemiga-negarse-a-armar-su-ia-jueza-acaba-frenarlo\" class=\"pivot-outboundlink\" data-vars-post-title='Anthropic afrontaba un largo invierno en la \"lista negra\" de EEUU: la justicia le ha salvado sobre la bocina'><br \/>\n     <img loading=\"lazy\" decoding=\"async\" alt='Anthropic afrontaba un largo invierno en la \"lista negra\" de EEUU: la justicia le ha salvado sobre la bocina' width=\"375\" height=\"142\" src=\"https:\/\/i.blogs.es\/256d82\/anthropic\/375_142.jpeg\"><br \/>\n    <\/a>\n   <\/div>\n<div class=\"desvio-summary\">\n<div class=\"desvio-taxonomy js-desvio-taxonomy\">\n     <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/eeuu-intento-tratar-a-anthropic-como-fuera-empresa-enemiga-negarse-a-armar-su-ia-jueza-acaba-frenarlo\" class=\"desvio-taxonomy-anchor pivot-outboundlink\" data-vars-post-title='Anthropic afrontaba un largo invierno en la \"lista negra\" de EEUU: la justicia le ha salvado sobre la bocina'>En Xataka<\/a>\n    <\/div>\n<p>    <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/eeuu-intento-tratar-a-anthropic-como-fuera-empresa-enemiga-negarse-a-armar-su-ia-jueza-acaba-frenarlo\" class=\"desvio-title js-desvio-title pivot-outboundlink\" data-vars-post-title='Anthropic afrontaba un largo invierno en la \"lista negra\" de EEUU: la justicia le ha salvado sobre la bocina'>Anthropic afrontaba un largo invierno en la \"lista negra\" de EEUU: la justicia le ha salvado sobre la bocina<\/a>\n   <\/div>\n<\/p><\/div>\n<\/p><\/div>\n<\/div>\n<p>Los requisitos var\u00edan mucho seg\u00fan el modelo que quieras instalar, pero como orientaci\u00f3n general:<\/p>\n<ul>\n<li><strong>RAM<\/strong>: M\u00ednimo 6 GB para modelos peque\u00f1os (1-3B par\u00e1metros). Para modelos medianos de 7B par\u00e1metros, conviene tener al menos 8 GB.<\/li>\n<li>Almacenamiento libre: Entre 2 y 5 GB para los modelos m\u00e1s ligeros. Un modelo de PocketPal AI suele ocupar entre 1 y 4 GB por instalaci\u00f3n.<\/li>\n<li><strong>Procesador<\/strong>: Cualquier gama media-alta de los \u00faltimos cuatro o cinco a\u00f1os funciona. Para modelos m\u00e1s exigentes y con m\u00e1s par\u00e1metros s\u00ed se recomienda un procesador bien potente.<\/li>\n<li><strong>Sistema operativo<\/strong>: para usar PocketPal espec\u00edficamente se requiere Android 7.0 (Nougat) o superior en Android, y est\u00e1 disponible tambi\u00e9n para iPhone a partir de iOS 15.1.<\/li>\n<\/ul>\n<p>La buena noticia es que los modelos m\u00e1s ligeros, como Qwen2.5-1.5B, <strong>pueden funcionar incluso en dispositivos m\u00e1s modestos<\/strong>. El propio equipo de PocketPal lo recomienda como punto de partida. La cosa es ir probando. Yo por ejemplo instal\u00e9 Qwen3-4B y me va bastante bien en un tel\u00e9fono de gama media de hace 5 a\u00f1os.<\/p>\n<div class=\"article-asset-video article-asset-normal\">\n<div class=\"asset-content\">\n<div class=\"base-asset-video\">\n<div class=\"js-dailymotion\"><\/div>\n<\/p><\/div>\n<\/p><\/div>\n<\/div>\n<h2>C\u00f3mo instalar PocketPal paso a paso<\/h2>\n<p>Para tener PocketPal funcionando correctamente en tu m\u00f3vil no tienes que hacer mucho. Bajo estas l\u00edneas te contamos c\u00f3mo hacerlo paso a paso:<\/p>\n<p><strong>1. Descarga la app<\/strong><\/p>\n<p>PocketPal AI est\u00e1 disponible tanto en la Play Store de Android como en la App Store de Apple. Enlaces para <a rel=\"noopener, noreferrer\" href=\"https:\/\/play.google.com\/store\/apps\/details?id=com.pocketpalai&amp;hl=en\">Android<\/a> y para <a rel=\"noopener, noreferrer\" href=\"https:\/\/apps.apple.com\/us\/app\/pocketpal-ai\/id6502579498\">iOS<\/a>.<\/p>\n<p><strong>2. Descarga un modelo de IA<\/strong><\/p>\n<p>Una vez dentro, la aplicaci\u00f3n te pedir\u00e1 que descargues un modelo para empezar. En \u2018Models\u2019 aparece un listado de los modelos disponibles. En esa lista no encontrar\u00e1s nombres como Gemini o GPT, que son modelos propietarios. En su lugar ver\u00e1s sus versiones de c\u00f3digo abierto: <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/basics\/google-gemma-que-que-se-diferencia-sirve-este-nuevo-modelo-inteligencia-artificial\" data-vars-post-title=\"Google Gemma: qu\u00e9 es, en qu\u00e9 se diferencia, y para qu\u00e9 sirve este nuevo modelo de inteligencia artificial \" data-vars-post-url=\"https:\/\/www.xataka.com\/basics\/google-gemma-que-que-se-diferencia-sirve-este-nuevo-modelo-inteligencia-artificial\">Gemma<\/a> es la versi\u00f3n abierta de Gemini de Google; <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/basics\/que-llama-como-funciona-que-sabemos-inteligencia-artificial-meta\" data-vars-post-title=\"Qu\u00e9 es LLaMA, c\u00f3mo funciona y qu\u00e9 sabemos de la inteligencia artificial de Meta\n\" data-vars-post-url=\"https:\/\/www.xataka.com\/basics\/que-llama-como-funciona-que-sabemos-inteligencia-artificial-meta\">Llama<\/a> es el modelo de Meta, la misma IA que usan WhatsApp e Instagram; <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/robotica-e-ia\/microsoft-lanza-phi-3-pequeno-modelo-ia-que-corre-problemas-dispositivo-sorpresa-iphone-15\" data-vars-post-title=\"Microsoft lanza Phi-3, un peque\u00f1o modelo de IA que corre sin problemas en un dispositivo sorpresa: el iPhone 15 \" data-vars-post-url=\"https:\/\/www.xataka.com\/robotica-e-ia\/microsoft-lanza-phi-3-pequeno-modelo-ia-que-corre-problemas-dispositivo-sorpresa-iphone-15\">Phi<\/a> es el modelo abierto de Microsoft; y <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/basics\/qwen-que-como-usar-inteligencia-artificial-alibaba-gratis-tener-que-pagar-cuotas\" data-vars-post-title=\"Qwen: qu\u00e9 es y c\u00f3mo usar la inteligencia artificial de Alibaba gratis sin tener que pagar cuotas\" data-vars-post-url=\"https:\/\/www.xataka.com\/basics\/qwen-que-como-usar-inteligencia-artificial-alibaba-gratis-tener-que-pagar-cuotas\">Qwen<\/a> es de Alibaba, entre otros.<\/p>\n<p><!-- BREAK 6 --><\/p>\n<div class=\"article-asset-image article-asset-large article-asset-center\">\n<div class=\"asset-content\">\n<p>   <img decoding=\"async\" alt=\"Juntas Nuevo 2\" class=\"\" src=\"https:\/\/i.blogs.es\/262ba2\/juntas-nuevo-2\/450_1000.jpeg\"><\/p><\/div>\n<\/div>\n<p>Si eres nuevo y quieres probar, quiz\u00e1s uno de los m\u00e1s recomendables y ligeritos es Qwen2.5-1.5B. Da buenos resultados para consultas sencillas y es bastante r\u00e1pido (si el hardware de tu tel\u00e9fono est\u00e1 m\u00e1s o menos a la altura). Si tu m\u00f3vil tiene m\u00e1s de 6 GB de RAM y espacio libre de sobra, puedes probar modelos de 3B-4B par\u00e1metros como Llama 3.2 3B, que ofrece respuestas m\u00e1s elaboradas.<\/p>\n<p><!-- BREAK 7 --><\/p>\n<p>Lo bueno es que tambi\u00e9n <strong>tienes todo el repositorio de Hugging Face<\/strong> para probar pulsando el bot\u00f3n de la esquina inferior derecha. Aqu\u00ed podemos instalar directamente desde Hugging Face cualquier modelo, como por ejemplo Qwen3-4B-Instruct, que es el que instal\u00e9 yo en el Nord 2, o probar con otros de DeepSeek o Mistral. Todo funciona desde la app, sin salir de ella.<\/p>\n<p><!-- BREAK 8 --><\/p>\n<p><strong>Importante<\/strong>: la descarga del modelo s\u00ed requiere conexi\u00f3n a Internet. Solo hay que estar conectado en ese primer momento. A partir de ah\u00ed, todo funciona en local.<\/p>\n<p><!-- BREAK 9 --><\/p>\n<div class=\"article-asset article-asset-normal article-asset-center\">\n<div class=\"desvio-container\">\n<div class=\"desvio\">\n<div class=\"desvio-figure js-desvio-figure\">\n    <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/centros-datos-se-han-comido-ram-mundial-ahora-amenazan-comerse-baterias\" class=\"pivot-outboundlink\" data-vars-post-title=\"No contenta con reventar la demanda y los precios de la RAM, la IA ya apunta a otra v\u00edctima: las bater\u00edas\"><br \/>\n     <img loading=\"lazy\" decoding=\"async\" alt=\"No contenta con reventar la demanda y los precios de la RAM, la IA ya apunta a otra v\u00edctima: las bater\u00edas\" width=\"375\" height=\"142\" src=\"https:\/\/i.blogs.es\/1c6bcb\/image-4\/375_142.jpeg\"><br \/>\n    <\/a>\n   <\/div>\n<div class=\"desvio-summary\">\n<div class=\"desvio-taxonomy js-desvio-taxonomy\">\n     <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/centros-datos-se-han-comido-ram-mundial-ahora-amenazan-comerse-baterias\" class=\"desvio-taxonomy-anchor pivot-outboundlink\" data-vars-post-title=\"No contenta con reventar la demanda y los precios de la RAM, la IA ya apunta a otra v\u00edctima: las bater\u00edas\">En Xataka<\/a>\n    <\/div>\n<p>    <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/centros-datos-se-han-comido-ram-mundial-ahora-amenazan-comerse-baterias\" class=\"desvio-title js-desvio-title pivot-outboundlink\" data-vars-post-title=\"No contenta con reventar la demanda y los precios de la RAM, la IA ya apunta a otra v\u00edctima: las bater\u00edas\">No contenta con reventar la demanda y los precios de la RAM, la IA ya apunta a otra v\u00edctima: las bater\u00edas<\/a>\n   <\/div>\n<\/p><\/div>\n<\/p><\/div>\n<\/div>\n<p><strong>3. Carga el modelo y empieza a chatear<\/strong><\/p>\n<p>Una vez descargado, pulsa sobre el modelo para cargarlo en memoria. Despu\u00e9s, ve a la secci\u00f3n de Chat, escribe tu mensaje y la IA responder\u00e1 proces\u00e1ndolo \u00edntegramente en tu tel\u00e9fono. Puedes verificarlo desactivando el WiFi y los datos.<\/p>\n<p><!-- BREAK 10 --><\/p>\n<h2>Qu\u00e9 rendimiento puedes esperar<\/h2>\n<p>Conviene ser realista. Una IA local en el m\u00f3vil no es ChatGPT. Las respuestas <strong>llegar\u00e1n m\u00e1s despacio y el tel\u00e9fono se calentar\u00e1 un poco m\u00e1s<\/strong> de lo habitual por el uso intensivo del procesador. Los modelos generan entre 5 y 20 tokens por segundo en m\u00f3viles de gama alta, suficiente para mantener una conversaci\u00f3n fluida, pero lejos de la velocidad de un servidor con GPU.<\/p>\n<div class=\"article-asset-image article-asset-large article-asset-center\">\n<div class=\"asset-content\">\n<p>   <img decoding=\"async\" alt=\"Juntas Nuevo 3\" class=\"\" src=\"https:\/\/i.blogs.es\/4d5708\/juntas-nuevo-3\/450_1000.jpeg\"><\/p><\/div>\n<\/div>\n<p>Para sacarle m\u00e1s rendimiento en iPhone, est\u00e1 la opci\u00f3n de activar Metal, la API de aceleraci\u00f3n de hardware de Apple y aumentar el par\u00e1metro \"Layers on GPU\" hasta alrededor de 80. Con este cambio, iOS traslada parte del procesamiento de la CPU a la GPU del dispositivo, lo que acelera notablemente la generaci\u00f3n de texto. En algunos dispositivos recientes, activar tambi\u00e9n la opci\u00f3n de \u2018Flash Attention\u2019 puede a\u00f1adir una mejora adicional.<\/p>\n<p><!-- BREAK 11 --><\/p>\n<p>En cuanto al tama\u00f1o de los archivos que funcionan mejor, el punto \u00f3ptimo en smartphones y tablets es usar <strong>modelos de formato .gguf de aproximadamente 4 GB<\/strong>. Por encima de esa cifra la cosa se ralentiza significativamente.<\/p>\n<p><!-- BREAK 12 --><\/p>\n<div class=\"article-asset article-asset-normal article-asset-center\">\n<div class=\"desvio-container\">\n<div class=\"desvio\">\n<div class=\"desvio-figure js-desvio-figure\">\n    <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/amazon-usaba-robots-a-bestia-ahora-tiene-robot-humanoide-42-pulgadas-que-baila-recoge-juguetes-suelo\" class=\"pivot-outboundlink\" data-vars-post-title=\"Amazon cree que disponer de un robot recogiendo cosas, doblando ropa y jugando con tu perro tiene precio: 50.000 d\u00f3lares\"><br \/>\n     <img loading=\"lazy\" decoding=\"async\" alt=\"Amazon cree que disponer de un robot recogiendo cosas, doblando ropa y jugando con tu perro tiene precio: 50.000 d\u00f3lares\" width=\"375\" height=\"142\" src=\"https:\/\/i.blogs.es\/cf58ef\/sprout1\/375_142.jpeg\"><br \/>\n    <\/a>\n   <\/div>\n<div class=\"desvio-summary\">\n<div class=\"desvio-taxonomy js-desvio-taxonomy\">\n     <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/amazon-usaba-robots-a-bestia-ahora-tiene-robot-humanoide-42-pulgadas-que-baila-recoge-juguetes-suelo\" class=\"desvio-taxonomy-anchor pivot-outboundlink\" data-vars-post-title=\"Amazon cree que disponer de un robot recogiendo cosas, doblando ropa y jugando con tu perro tiene precio: 50.000 d\u00f3lares\">En Xataka<\/a>\n    <\/div>\n<p>    <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/amazon-usaba-robots-a-bestia-ahora-tiene-robot-humanoide-42-pulgadas-que-baila-recoge-juguetes-suelo\" class=\"desvio-title js-desvio-title pivot-outboundlink\" data-vars-post-title=\"Amazon cree que disponer de un robot recogiendo cosas, doblando ropa y jugando con tu perro tiene precio: 50.000 d\u00f3lares\">Amazon cree que disponer de un robot recogiendo cosas, doblando ropa y jugando con tu perro tiene precio: 50.000 d\u00f3lares<\/a>\n   <\/div>\n<\/p><\/div>\n<\/p><\/div>\n<\/div>\n<h2>PocketPal no es la \u00fanica opci\u00f3n<\/h2>\n<p>PocketPal es probablemente la app m\u00e1s accesible para empezar, pero tambi\u00e9n tenemos <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/basics\/mejores-aplicaciones-para-tener-inteligencia-artificial-local-tu-movil-pc-necesitar-conexion-mayor-privacidad\" data-vars-post-title=\"Las mejores aplicaciones para tener una inteligencia artificial local en tu m\u00f3vil o PC, sin necesitar conexi\u00f3n y con mayor privacidad \" data-vars-post-url=\"https:\/\/www.xataka.com\/basics\/mejores-aplicaciones-para-tener-inteligencia-artificial-local-tu-movil-pc-necesitar-conexion-mayor-privacidad\">otras alternativas<\/a>. En Android destaca tambi\u00e9n MNN Chat, con soporte multimodal. Para quienes usan iPhone tambi\u00e9n tienen Private LLM, aunque es de pago e incluye modelos optimizados aprovechando t\u00e9cnicas de cuantizaci\u00f3n para rendir mejor en dispositivos m\u00e1s modestos.<\/p>\n<p>Si lo que quieres es hacer lo mismo pero en un ordenador, las referencias son dos: <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/basics\/que-ollama-como-usarlo-para-instalar-tu-ordenador-modelos-inteligencia-artificial-como-llama-deepseek\" data-vars-post-title=\"Qu\u00e9 es Ollama y c\u00f3mo usarlo para instalar en tu ordenador modelos de inteligencia artificial como Llama, DeepSeek y m\u00e1s\" data-vars-post-url=\"https:\/\/www.xataka.com\/basics\/que-ollama-como-usarlo-para-instalar-tu-ordenador-modelos-inteligencia-artificial-como-llama-deepseek\">Ollama<\/a> y <a rel=\"noopener, noreferrer\" href=\"https:\/\/lmstudio.ai\/\">LM Studio<\/a>. Con ellas es muy f\u00e1cil tener una IA en local en tu PC. LM Studio tiene una interfaz visual muy amigable; Ollama es m\u00e1s t\u00e9cnico pero m\u00e1s flexible. Ambos son gratuitos y permiten ejecutar modelos de hasta 13B par\u00e1metros o m\u00e1s dependiendo del hardware del equipo.<\/p>\n<p><!-- BREAK 13 --><\/p>\n<div class=\"article-asset article-asset-normal article-asset-center\">\n<div class=\"desvio-container\">\n<div class=\"desvio\">\n<div class=\"desvio-figure js-desvio-figure\">\n    <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/escribir-bien-sospechoso-detectores-ia-marcan-biblia-cien-anos-soledad-como-obras-hechas-maquinas\" class=\"pivot-outboundlink\" data-vars-post-title=\"Las herramientas para detectar textos hechos con IA son flojas nivel: creen que 'Cien a\u00f1os de soledad' es IA\"><br \/>\n     <img loading=\"lazy\" decoding=\"async\" alt=\"Las herramientas para detectar textos hechos con IA son flojas nivel: creen que 'Cien a\u00f1os de soledad' es IA\" width=\"375\" height=\"142\" src=\"https:\/\/i.blogs.es\/5b09ea\/detector\/375_142.jpeg\"><br \/>\n    <\/a>\n   <\/div>\n<div class=\"desvio-summary\">\n<div class=\"desvio-taxonomy js-desvio-taxonomy\">\n     <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/escribir-bien-sospechoso-detectores-ia-marcan-biblia-cien-anos-soledad-como-obras-hechas-maquinas\" class=\"desvio-taxonomy-anchor pivot-outboundlink\" data-vars-post-title=\"Las herramientas para detectar textos hechos con IA son flojas nivel: creen que 'Cien a\u00f1os de soledad' es IA\">En Xataka<\/a>\n    <\/div>\n<p>    <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/escribir-bien-sospechoso-detectores-ia-marcan-biblia-cien-anos-soledad-como-obras-hechas-maquinas\" class=\"desvio-title js-desvio-title pivot-outboundlink\" data-vars-post-title=\"Las herramientas para detectar textos hechos con IA son flojas nivel: creen que 'Cien a\u00f1os de soledad' es IA\">Las herramientas para detectar textos hechos con IA son flojas nivel: creen que 'Cien a\u00f1os de soledad' es IA<\/a>\n   <\/div>\n<\/p><\/div>\n<\/p><\/div>\n<\/div>\n<h2>Vale la pena, con matices<\/h2>\n<p>Una IA local en el m\u00f3vil <strong>no sustituye a los grandes asistentes que conocemos<\/strong>, al menos por ahora. Para tareas complejas, documentos extensos o razonamientos sofisticados, las versiones de servidor siguen siendo superiores. Pero para el uso cotidiano (resolver una duda, resumir un p\u00e1rrafo, buscar ideas, traducir algo r\u00e1pido o simplemente tener una conversaci\u00f3n), los modelos peque\u00f1os hacen un trabajo m\u00e1s que digno. Eso s\u00ed, prep\u00e1rate para las alucinaciones.<\/p>\n<p>En Xataka |\u00a0<a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/robotica-e-ia\/cuando-se-lanzo-sora-muchos-asumieron-que-era-muerte-hollywood-solo-dos-anos-despues-sora-no-existe\" data-vars-post-title=\"Dec\u00edan que la IA generativa de v\u00eddeo acabar\u00eda con Hollywood. De momento la pelea est\u00e1 de parte de la tradici\u00f3n \" data-vars-post-url=\"https:\/\/www.xataka.com\/robotica-e-ia\/cuando-se-lanzo-sora-muchos-asumieron-que-era-muerte-hollywood-solo-dos-anos-despues-sora-no-existe\">Dec\u00edan que la IA generativa de v\u00eddeo acabar\u00eda con Hollywood. De momento la pelea est\u00e1 de parte de la tradici\u00f3n<\/a><\/p>\n<p> &#8211; <br \/> La noticia<br \/>\n      <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/tener-ia-mi-movil-que-funciona-conexion-a-internet-util-que-pensaba-asi-puedes-poner-marcha-facil?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=05_Apr_2026\"><br \/>\n       <em> Tener una IA en mi m\u00f3vil que funciona sin conexi\u00f3n a Internet es m\u00e1s \u00fatil de lo que pensaba: as\u00ed la puedes poner en marcha <\/em><br \/>\n      <\/a><br \/>\n      fue publicada originalmente en<br \/>\n      <a href=\"https:\/\/www.xataka.com\/?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=05_Apr_2026\"><br \/>\n       <strong> Xataka <\/strong><br \/>\n      <\/a><br \/>\n             por <a href=\"https:\/\/www.xataka.com\/autor\/antonio-vallejo-taslimi?utm_source=feedburner&amp;utm_medium=feed&amp;utm_campaign=05_Apr_2026\"><br \/>\n        Antonio Vallejo<br \/>\n       <\/a><br \/>\n      . <\/p>\n<p>\u00a0Adem\u00e1s de todos los modelos de lenguaje para IA comerciales que tenemos a nuestra disposici\u00f3n (ChatGPT, Gemini, Claude, etc), existe todo un mundo de modelos de lenguaje de c\u00f3digo abierto que nos pueden servir para un mont\u00f3n de aplicaciones, tanto a nivel dom\u00e9stico, como empresarial. Llevo un buen tiempo trasteando con LLMs en local y la verdad es que tener uno funcionando sin necesidad de conexi\u00f3n a Internet nos puede venir francamente bien.<\/p>\n<p>La cuesti\u00f3n es que instalar un LLM en local y en nuestro tel\u00e9fono m\u00f3vil es m\u00e1s sencillo de lo que parece. A d\u00eda de hoy podemos encontrar herramientas muy f\u00e1ciles de manejar y con una interfaz muy amigable para cualquier usuario. Encima, tampoco necesitas un smartphone con especificaciones t\u00e9cnicas muy elevadas para ejecutar un modelo chiquito. Bajo este texto te explico c\u00f3mo hacerlo y qu\u00e9 sentido tiene tener una IA en local en tu m\u00f3vil.<\/p>\n<p>Qu\u00e9 es PocketPal y qu\u00e9 sentido tiene tener una IA en localUna de las herramientas que lo hace posible se llama PocketPal AI, y lo mejor es que instalarla y ponerla en marcha no requiere conocimientos t\u00e9cnicos. La app es gratuita para iOS y Android y permite instalar modelos de inteligencia artificial directamente en el tel\u00e9fono m\u00f3vil, de manera que el usuario puede utilizarlos sin conexi\u00f3n a Internet, con privacidad total y sin que sus conversaciones lleguen a servidores externos.<\/p>\n<p>     En Xataka<\/p>\n<p>    En un internet lleno de contenido artificial, Wikipedia tiene claro qu\u00e9 quiere ser: una reserva de contenido humano<\/p>\n<p>La clave de todo esto est\u00e1 en hacer uso de versiones reducidas de algunos de los modelos de lenguaje que conocemos. Estos peque\u00f1os modelos est\u00e1n pensados para ejecutarse directamente en la CPU o GPU de un dispositivo de consumo. No tienen la misma capacidad de razonamiento que el modelo m\u00e1s avanzado de OpenAI o Anthropic, ya que eso ahora mismo ser\u00eda imposible en el hardware de un tel\u00e9fono, pero s\u00ed son suficientemente capaces para una gran variedad de tareas cotidianas: resumir textos, responder preguntas, traducir, ayudar a redactar, generar c\u00f3digo sencillo o simplemente tener una conversaci\u00f3n.<\/p>\n<p>La propuesta es \u00fatil en m\u00e1s situaciones de las que parece. Imagina que est\u00e1s en el metro sin cobertura, en un viaje al extranjero sin datos o en una zona rural. Con una IA instalada localmente en el m\u00f3vil tienes siempre a mano una especie de enciclopedia inteligente: alguien con quien consultar, pensar en voz alta o resolver dudas en el momento. Y lo que es igual de importante: con total privacidad. Todo el procesamiento ocurre \u00edntegramente en el dispositivo. Las conversaciones, los prompts y los datos nunca salen del tel\u00e9fono ni se almacenan en servidores externos.<\/p>\n<p>Qu\u00e9 m\u00f3vil necesitasAntes de lanzarte a descargar la app, conviene revisar si tu dispositivo tiene lo necesario. Ejecutar un modelo de IA en local requiere que el dispositivo tenga una serie de especificaciones t\u00e9cnicas m\u00e1s o menos importantes, aunque tampoco hace falta que nos vayamos a la gama m\u00e1s alta de dispositivos para ejecutarlos. Yo mismo estoy usando PocketPal en un modesto, pero m\u00e1s que capaz OnePlus Nord 2.<\/p>\n<p>Los modelos de inteligencia artificial son archivos considerablemente grandes, por lo que se necesita cierto espacio de almacenamiento interno libre, y el procesamiento local demanda potencia de hardware. Pero vaya, con que tengas una cantidad de RAM considerable y una CPU que no de pena, vas sobrado.<\/p>\n<p>     En Xataka<\/p>\n<p>    Anthropic afrontaba un largo invierno en la \"lista negra\" de EEUU: la justicia le ha salvado sobre la bocina<\/p>\n<p>Los requisitos var\u00edan mucho seg\u00fan el modelo que quieras instalar, pero como orientaci\u00f3n general:<\/p>\n<p>RAM: M\u00ednimo 6 GB para modelos peque\u00f1os (1-3B par\u00e1metros). Para modelos medianos de 7B par\u00e1metros, conviene tener al menos 8 GB.Almacenamiento libre: Entre 2 y 5 GB para los modelos m\u00e1s ligeros. Un modelo de PocketPal AI suele ocupar entre 1 y 4 GB por instalaci\u00f3n.Procesador: Cualquier gama media-alta de los \u00faltimos cuatro o cinco a\u00f1os funciona. Para modelos m\u00e1s exigentes y con m\u00e1s par\u00e1metros s\u00ed se recomienda un procesador bien potente.Sistema operativo: para usar PocketPal espec\u00edficamente se requiere Android 7.0 (Nougat) o superior en Android, y est\u00e1 disponible tambi\u00e9n para iPhone a partir de iOS 15.1.La buena noticia es que los modelos m\u00e1s ligeros, como Qwen2.5-1.5B, pueden funcionar incluso en dispositivos m\u00e1s modestos. El propio equipo de PocketPal lo recomienda como punto de partida. La cosa es ir probando. Yo por ejemplo instal\u00e9 Qwen3-4B y me va bastante bien en un tel\u00e9fono de gama media de hace 5 a\u00f1os.<\/p>\n<p>C\u00f3mo instalar PocketPal paso a pasoPara tener PocketPal funcionando correctamente en tu m\u00f3vil no tienes que hacer mucho. Bajo estas l\u00edneas te contamos c\u00f3mo hacerlo paso a paso:<\/p>\n<p>1. Descarga la app<\/p>\n<p>PocketPal AI est\u00e1 disponible tanto en la Play Store de Android como en la App Store de Apple. Enlaces para Android y para iOS.<\/p>\n<p>2. Descarga un modelo de IA<\/p>\n<p>Una vez dentro, la aplicaci\u00f3n te pedir\u00e1 que descargues un modelo para empezar. En \u2018Models\u2019 aparece un listado de los modelos disponibles. En esa lista no encontrar\u00e1s nombres como Gemini o GPT, que son modelos propietarios. En su lugar ver\u00e1s sus versiones de c\u00f3digo abierto: Gemma es la versi\u00f3n abierta de Gemini de Google; Llama es el modelo de Meta, la misma IA que usan WhatsApp e Instagram; Phi es el modelo abierto de Microsoft; y Qwen es de Alibaba, entre otros.<\/p>\n<p>Si eres nuevo y quieres probar, quiz\u00e1s uno de los m\u00e1s recomendables y ligeritos es Qwen2.5-1.5B. Da buenos resultados para consultas sencillas y es bastante r\u00e1pido (si el hardware de tu tel\u00e9fono est\u00e1 m\u00e1s o menos a la altura). Si tu m\u00f3vil tiene m\u00e1s de 6 GB de RAM y espacio libre de sobra, puedes probar modelos de 3B-4B par\u00e1metros como Llama 3.2 3B, que ofrece respuestas m\u00e1s elaboradas.<\/p>\n<p>Lo bueno es que tambi\u00e9n tienes todo el repositorio de Hugging Face para probar pulsando el bot\u00f3n de la esquina inferior derecha. Aqu\u00ed podemos instalar directamente desde Hugging Face cualquier modelo, como por ejemplo Qwen3-4B-Instruct, que es el que instal\u00e9 yo en el Nord 2, o probar con otros de DeepSeek o Mistral. Todo funciona desde la app, sin salir de ella.<\/p>\n<p>Importante: la descarga del modelo s\u00ed requiere conexi\u00f3n a Internet. Solo hay que estar conectado en ese primer momento. A partir de ah\u00ed, todo funciona en local.<\/p>\n<p>     En Xataka<\/p>\n<p>    No contenta con reventar la demanda y los precios de la RAM, la IA ya apunta a otra v\u00edctima: las bater\u00edas<\/p>\n<p>3. Carga el modelo y empieza a chatear<\/p>\n<p>Una vez descargado, pulsa sobre el modelo para cargarlo en memoria. Despu\u00e9s, ve a la secci\u00f3n de Chat, escribe tu mensaje y la IA responder\u00e1 proces\u00e1ndolo \u00edntegramente en tu tel\u00e9fono. Puedes verificarlo desactivando el WiFi y los datos.<\/p>\n<p>Qu\u00e9 rendimiento puedes esperarConviene ser realista. Una IA local en el m\u00f3vil no es ChatGPT. Las respuestas llegar\u00e1n m\u00e1s despacio y el tel\u00e9fono se calentar\u00e1 un poco m\u00e1s de lo habitual por el uso intensivo del procesador. Los modelos generan entre 5 y 20 tokens por segundo en m\u00f3viles de gama alta, suficiente para mantener una conversaci\u00f3n fluida, pero lejos de la velocidad de un servidor con GPU.<\/p>\n<p>Para sacarle m\u00e1s rendimiento en iPhone, est\u00e1 la opci\u00f3n de activar Metal, la API de aceleraci\u00f3n de hardware de Apple y aumentar el par\u00e1metro \"Layers on GPU\" hasta alrededor de 80. Con este cambio, iOS traslada parte del procesamiento de la CPU a la GPU del dispositivo, lo que acelera notablemente la generaci\u00f3n de texto. En algunos dispositivos recientes, activar tambi\u00e9n la opci\u00f3n de \u2018Flash Attention\u2019 puede a\u00f1adir una mejora adicional.<\/p>\n<p>En cuanto al tama\u00f1o de los archivos que funcionan mejor, el punto \u00f3ptimo en smartphones y tablets es usar modelos de formato .gguf de aproximadamente 4 GB. Por encima de esa cifra la cosa se ralentiza significativamente.<\/p>\n<p>     En Xataka<\/p>\n<p>    Amazon cree que disponer de un robot recogiendo cosas, doblando ropa y jugando con tu perro tiene precio: 50.000 d\u00f3lares<\/p>\n<p>PocketPal no es la \u00fanica opci\u00f3nPocketPal es probablemente la app m\u00e1s accesible para empezar, pero tambi\u00e9n tenemos otras alternativas. En Android destaca tambi\u00e9n MNN Chat, con soporte multimodal. Para quienes usan iPhone tambi\u00e9n tienen Private LLM, aunque es de pago e incluye modelos optimizados aprovechando t\u00e9cnicas de cuantizaci\u00f3n para rendir mejor en dispositivos m\u00e1s modestos.<\/p>\n<p>Si lo que quieres es hacer lo mismo pero en un ordenador, las referencias son dos: Ollama y LM Studio. Con ellas es muy f\u00e1cil tener una IA en local en tu PC. LM Studio tiene una interfaz visual muy amigable; Ollama es m\u00e1s t\u00e9cnico pero m\u00e1s flexible. Ambos son gratuitos y permiten ejecutar modelos de hasta 13B par\u00e1metros o m\u00e1s dependiendo del hardware del equipo.<\/p>\n<p>     En Xataka<\/p>\n<p>    Las herramientas para detectar textos hechos con IA son flojas nivel: creen que 'Cien a\u00f1os de soledad' es IA<\/p>\n<p>Vale la pena, con maticesUna IA local en el m\u00f3vil no sustituye a los grandes asistentes que conocemos, al menos por ahora. Para tareas complejas, documentos extensos o razonamientos sofisticados, las versiones de servidor siguen siendo superiores. Pero para el uso cotidiano (resolver una duda, resumir un p\u00e1rrafo, buscar ideas, traducir algo r\u00e1pido o simplemente tener una conversaci\u00f3n), los modelos peque\u00f1os hacen un trabajo m\u00e1s que digno. Eso s\u00ed, prep\u00e1rate para las alucinaciones.<\/p>\n<p>En Xataka |\u00a0Dec\u00edan que la IA generativa de v\u00eddeo acabar\u00eda con Hollywood. De momento la pelea est\u00e1 de parte de la tradici\u00f3n<\/p>\n<p>                 &#8211;  La noticia<\/p>\n<p>        Tener una IA en mi m\u00f3vil que funciona sin conexi\u00f3n a Internet es m\u00e1s \u00fatil de lo que pensaba: as\u00ed la puedes poner en marcha <\/p>\n<p>      fue publicada originalmente en<\/p>\n<p>        Xataka <\/p>\n<p>             por<br \/>\n        Antonio Vallejo<\/p>\n<p>      .\u00a0\u00a0\u00a0<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Adem\u00e1s de todos los modelos de lenguaje para IA comerciales que tenemos a nuestra disposici\u00f3n (ChatGPT, Gemini, Claude, etc), existe todo un mundo de modelos de lenguaje de c\u00f3digo abierto que nos pueden servir para un mont\u00f3n de aplicaciones, tanto a nivel dom\u00e9stico, como empresarial. Llevo un buen tiempo trasteando con LLMs en local y [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":12626,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"amp_status":"","footnotes":""},"categories":[6],"tags":[],"class_list":["post-12625","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ciencia-y-tecnologia"],"_links":{"self":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts\/12625","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/comments?post=12625"}],"version-history":[{"count":0,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/posts\/12625\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/media\/12626"}],"wp:attachment":[{"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/media?parent=12625"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/categories?post=12625"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ermdigital.com\/index.php\/wp-json\/wp\/v2\/tags?post=12625"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}