Ciencia y Tecnología
Cómo instalar los nuevos modelos gpt-oss de OpenAI en tu ordenador para tener tu propio ChatGPT en local
<p>
 <img src="https://i.blogs.es/0526a1/gpt-oss-20b/1024_2000.jpeg" alt="Cómo instalar los nuevos modelos gpt-oss de OpenAI en tu ordenador para tener tu propio ChatGPT en local">
 </p>
<p>OpenAI ha anunciado <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/openai-acaba-patear-tablero-ia-su-nuevo-modelo-gratuito-se-puede-descargar-para-usarlo-portatil" data-vars-post-title="OpenAI acaba de patear el tablero de la IA. Su nuevo modelo es gratuito y se puede descargar para usarlo desde el portátil" data-vars-post-url="https://www.xataka.com/robotica-e-ia/openai-acaba-patear-tablero-ia-su-nuevo-modelo-gratuito-se-puede-descargar-para-usarlo-portatil">nuevos modelos <em>open source</em></a> que cualquiera puede descargar e instalar en su ordenador: gpt-oss. Con estos ya en la calle, es una excelente oportunidad para empezar a trastear con la <a class="text-outboundlink" href="https://www.xataka.com/basics/inteligencia-artificial-tu-pc-mejores-herramientas-gratis-para-instalar-modelos-ia-como-deepseek-llama-mistral-gemma" data-vars-post-title="Inteligencia artificial en tu PC: las mejores herramientas gratis para instalar modelos de IA como DeepSeek, Llama, Mistral, Gemma y más" data-vars-post-url="https://www.xataka.com/basics/inteligencia-artificial-tu-pc-mejores-herramientas-gratis-para-instalar-modelos-ia-como-deepseek-llama-mistral-gemma">IA en local</a>, es decir, <strong>ejecutada en nuestro ordenador</strong>, por lo que hoy te vamos a enseñar a instalarlos y usarlos.</p>
<p><!-- BREAK 1 --></p>
<h2>Diferencias entre los dos modelos</h2>
<p>Aunque se llamen de forma parecida, <strong>gpt-oss-120b y gpt-oss-20b no son exactamente lo mismo</strong> ni tienen los mismos requisitos. El primer modelo, gpt-oss-120b, alcanza una paridad cercana a OpenAI o4-mini y requiere de al menos 60 GB de memoria gráfica.</p>
<p><!-- BREAK 2 --></p>
<div class="article-asset-image article-asset-normal article-asset-center">
<div class="asset-content">
<div class="caption-img ">
<p> <img alt="Tener tu propio ChatGPT en local es fácil, pero requiere de un equipo a la altura | Imagen: Xataka" class="centro_sinmarco" src="https://i.blogs.es/f85361/captura-de-pantalla-2025-08-06-131717/450_1000.png"></p>
<p> <span>Tener tu propio ChatGPT en local es fácil, pero requiere de un equipo a la altura | Imagen: Xataka</span>
 </div>
</p></div>
</div>
<p>Su hermano pequeño, gpt-oss-20b, es algo menos capaz (similar a o3-mini, de acuerdo a OpenAI), pero se puede ejecutar en dispositivos <em>edge. </em>Dicho de otra manera, se puede ejecutar en tu propio ordenador siempre que tenga al menos 16 GB de memoria, preferiblemente gráfica.</p>
<p><!-- BREAK 3 --></p>
<p>En resumen:</p>
<ul>
<li><strong>gpt-oss-120b</strong>: modelo grande, necesita al menos 60 GB de memoria VRAM o unidicada y no es apto para ordenadores de consumo.</li>
<li><strong>gpt-oss-20b</strong>: modelo más pequeño, necesita 16 GB de memoria VRAM o unificada y es apto para ordenadores de consumo.</li>
</ul>
<p>El que vamos a usar, por motivos evidentes, es <strong>gpt-oss-20b</strong>.</p>
<h2>Consideraciones a tener en cuenta</h2>
<p>Ejecutar una IA como esta en local es un proceso intensivo que puede provocar, y seguramente provoque, que tu ordenador se ralentice mucho. Aunque podrías ejecutarlo teniendo 16 GB de memoria RAM, lo ideal es que tu equipo tenga <a class="text-outboundlink" href="https://www.xataka.com/analisis/nvidia-geforce-rtx-5090-geforce-rtx-5080-analisis-caracteristicas-precio-especificaciones" data-vars-post-title="NVIDIA GeForce RTX 5090 y 5080, análisis: su rendimiento enamora, aunque DLSS 4 lo es todo en estas tarjetas gráficas" data-vars-post-url="https://www.xataka.com/analisis/nvidia-geforce-rtx-5090-geforce-rtx-5080-analisis-caracteristicas-precio-especificaciones">una GPU de gama alta</a>.</p>
<p><!-- BREAK 4 --></p>
<p>¿Qué pasará si tu ordenador tiene menos de 16 GB de memoria VRAM? Que la herramienta <strong>usará la memoria RAM</strong>, cuya cifra debe ser igual o superior a 16 GB. Si no es así, el sistema no funcionará correctamente. Como recomendación general, lo ideal es dedicar todos los recursos posibles de tu ordenador a la ejecución del modelo, por lo que cierra todo lo que no sea estrictamente necesario.</p>
<p><!-- BREAK 5 --></p>
<h2>Instala Ollama en tu ordenador</h2>
<div class="article-asset-image article-asset-normal article-asset-center">
<div class="asset-content">
<div class="caption-img ">
<p> <img alt="Instalación de Ollama | Imagen: Xataka" class="centro_sinmarco" src="https://i.blogs.es/2db4be/captura-de-pantalla-2025-08-06-124555/450_1000.png"></p>
<p> <span>Instalación de Ollama | Imagen: Xataka</span>
 </div>
</p></div>
</div>
<p>Para este tutorial vamos a usar una aplicación bastante conocida: <strong>Ollama</strong>. Es una plataforma open source que simplifica, y mucho, la instalación, acceso y uso de <a class="text-outboundlink" href="https://www.xataka.com/basics/llm-que-significa-que-se-puede-hacer-este-tipo-modelo-inteligencia-artificial" data-vars-post-title="LLM: qué es y qué se puede hacer con este tipo de modelo de lenguaje de aprendizaje profundo para inteligencia artificial" data-vars-post-url="https://www.xataka.com/basics/llm-que-significa-que-se-puede-hacer-este-tipo-modelo-inteligencia-artificial">LLMs</a> (Large Language Models). Digamos que es un ejecutor de modelos.</p>
<p><!-- BREAK 6 --></p>
<p>ChatGPT es una plataforma online a través de la cual interactuamos con un modelo, como <a class="text-outboundlink" href="https://www.xataka.com/basics/gpt-4o-que-que-se-diferencia-gpt-4" data-vars-post-title="GPT-4o: qué es y en qué se diferencia con GPT-4" data-vars-post-url="https://www.xataka.com/basics/gpt-4o-que-que-se-diferencia-gpt-4">GPT-4o</a>. Ollama es lo mismo, <strong>pero en local y con los modelos que tengamos instalados en nuestro ordenador</strong>. Es un software gratuito, de código abierto y disponible para <a rel="noopener, noreferrer" href="https://ollama.com/download/windows">Windows</a>, <a rel="noopener, noreferrer" href="https://ollama.com/download/mac">Mac</a> y <a rel="noopener, noreferrer" href="https://ollama.com/download/linux">Linux</a>.</p>
<p><!-- BREAK 7 --></p>
<h2>Descarga gpt-oss</h2>
<p>Una vez hayamos descargado e instalado el programa en nuestro ordenador nos encontraremos con una interfaz como esta. Si lo deseas, también puedes usar Ollama a la antigua mediante la <a class="text-outboundlink" href="https://www.xataka.com/basics/comandos-basicos-para-dar-tus-primeros-pasos-consola-windows-cmd" data-vars-post-title="33 comandos básicos para dar tus primeros pasos en la consola de Windows (CMD)" data-vars-post-url="https://www.xataka.com/basics/comandos-basicos-para-dar-tus-primeros-pasos-consola-windows-cmd">interfaz de comandos</a>, pero lo cierto es que la interfaz gráfica es mucho más agradable.</p>
<p><!-- BREAK 8 --></p>
<div class="article-asset-image article-asset-normal article-asset-center">
<div class="asset-content">
<div class="caption-img ">
<p> <img alt="Interfaz principal de Ollama | Imagen: Xataka" class="centro_sinmarco" src="https://i.blogs.es/e06082/captura-de-pantalla-2025-08-06-124744/450_1000.png"></p>
<p> <span>Interfaz principal de Ollama | Imagen: Xataka</span>
 </div>
</p></div>
</div>
<p>Si nos fijamos, veremos un desplegable en la zona inferior derecha con el nombre del modelo que estamos usando o que, mejor dicho vamos a usar.</p>
<div class="article-asset-image article-asset-normal article-asset-center">
<div class="asset-content">
<div class="caption-img ">
<p> <img alt="Acceso a los diferentes modelos de IA desde Ollama | Imagen: Xataka" class="centro_sinmarco" src="https://i.blogs.es/abf7e9/captura-de-pantalla-2025-08-06-124735/450_1000.png"></p>
<p> <span>Acceso a los diferentes modelos de IA desde Ollama | Imagen: Xataka</span>
 </div>
</p></div>
</div>
<p>Si pulsamos sobre el desplegable podremos acceder a un buen puñado de modelos, como <a class="text-outboundlink" href="https://www.xataka.com/basics/deepseek-que-como-funciona-que-opciones-tiene-esta-inteligencia-artificial" data-vars-post-title="DeepSeek: qué es, cómo funciona y qué opciones tiene esta inteligencia artificial" data-vars-post-url="https://www.xataka.com/basics/deepseek-que-como-funciona-que-opciones-tiene-esta-inteligencia-artificial">Deepseek R1</a>, <a class="text-outboundlink" href="https://www.xataka.com/basics/google-gemma-que-que-se-diferencia-sirve-este-nuevo-modelo-inteligencia-artificial" data-vars-post-title="Google Gemma: qué es, en qué se diferencia, y para qué sirve este nuevo modelo de inteligencia artificial " data-vars-post-url="https://www.xataka.com/basics/google-gemma-que-que-se-diferencia-sirve-este-nuevo-modelo-inteligencia-artificial">Gemma</a> o <a class="text-outboundlink" href="https://www.xataka.com/basics/qwen-que-como-usar-inteligencia-artificial-alibaba-gratis-tener-que-pagar-cuotas" data-vars-post-title="Qwen: qué es y cómo usar la inteligencia artificial de Alibaba gratis sin tener que pagar cuotas" data-vars-post-url="https://www.xataka.com/basics/qwen-que-como-usar-inteligencia-artificial-alibaba-gratis-tener-que-pagar-cuotas">Qwen</a>. Para el caso, nos interesa seleccionar &#8220;<strong>gpt-oss:20b</strong>&#8220;.</p>
<p><!-- BREAK 9 --></p>
<div class="article-asset-image article-asset-normal article-asset-center">
<div class="asset-content">
<div class="caption-img ">
<p> <img alt="Descarga del modelo, ármate de paciencia | Imagen: Xataka" class="centro_sinmarco" src="https://i.blogs.es/d47d27/captura-de-pantalla-2025-08-06-125324/450_1000.png"></p>
<p> <span>Descarga del modelo, ármate de paciencia | Imagen: Xataka</span>
 </div>
</p></div>
</div>
<p>Habiendo seleccionado &#8220;gpt-oss:20b&#8221;, bastará con enviar un mensaje en el chat para que comience la descarga del modelo. Ármate de paciencia, porque pesa 12,8 GB y puede llevar un rato.</p>
<p><!-- BREAK 10 --></p>
<div class="article-asset-image article-asset-normal article-asset-center">
<div class="asset-content">
<div class="caption-img ">
<p> <img alt="Hablando con gpt-oss-20b a través de Ollama | Imagen: Xataka" class="centro_sinmarco" src="https://i.blogs.es/18bf75/captura-de-pantalla-2025-08-06-131408/450_1000.png"></p>
<p> <span>Hablando con gpt-oss-20b a través de Ollama | Imagen: Xataka</span>
 </div>
</p></div>
</div>
<p>Una vez esté instalado, podrás empezar a hablar con la IA como si de ChatGPT se tratara. Eso sí, si tu GPU no cumple con los requisitos mínimos verás que es muchísimo más lento que ChatGPT. No en vano, estás ejecutando el modelo en tu ordenador, no en un macrocentro de datos lleno de lo último en GPUs dedicadas de NVIDIA.</p>
<p><!-- BREAK 11 --></p>
<h2>Otra opción: LM Studio</h2>
<div class="article-asset-image article-asset-normal article-asset-center">
<div class="asset-content">
<div class="caption-img ">
<p> <img alt="LM Studio | Imagen: Xataka" class="centro_sinmarco" src="https://i.blogs.es/1f3333/captura-de-pantalla-2025-08-06-140113/450_1000.png"></p>
<p> <span>LM Studio | Imagen: Xataka</span>
 </div>
</p></div>
</div>
<p>Ollama tiene la ventaja de ser intuitivo, sencillo y directo. Si queremos más opciones, un programa mucho más completo es <a rel="noopener, noreferrer" href="https://lmstudio.ai/download">LM Studio</a>. Este está disponible para Windows, Linux y Mac y, como Ollama, es capaz de gestionar varios modelos, <strong>gpt-oss:20b entre ellos</strong>.</p>
<p><!-- BREAK 12 --></p>
<p>Es una aplicación más avanzada que nos permite ajustar mejor tanto el comportamiento de nuestro ordenador como el del modelo, aunque exprimirlo al máximo requiere de conocimientos más avanzados.</p>
<p><!-- BREAK 13 --></p>
<p>Imagen de portada | Xataka</p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/basics/como-pasar-imagen-a-video-utilizando-inteligencia-artificial-14-herramientas-gratis-imprescindibles" data-vars-post-title="Cómo pasar de imagen a vídeo utilizando inteligencia artificial: 14 herramientas gratis imprescindibles " data-vars-post-url="https://www.xataka.com/basics/como-pasar-imagen-a-video-utilizando-inteligencia-artificial-14-herramientas-gratis-imprescindibles">Cómo pasar de imagen a vídeo utilizando inteligencia artificial: 14 herramientas gratis imprescindibles</a></p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/basics/como-instalar-nuevos-modelos-got-oss-openai-tu-ordenador-para-tener-tu-propio-chatgpt-local?utm_source=feedburner&;utm_medium=feed&;utm_campaign=06_Aug_2025"><br />
 <em> Cómo instalar los nuevos modelos gpt-oss de OpenAI en tu ordenador para tener tu propio ChatGPT en local </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=06_Aug_2025"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/jose-garcia-nieto?utm_source=feedburner&;utm_medium=feed&;utm_campaign=06_Aug_2025"><br />
 Jose García<br />
 </a><br />
 . </p>
<p>​OpenAI ha anunciado nuevos modelos open source que cualquiera puede descargar e instalar en su ordenador: gpt-oss. Con estos ya en la calle, es una excelente oportunidad para empezar a trastear con la IA en local, es decir, ejecutada en nuestro ordenador, por lo que hoy te vamos a enseñar a instalarlos y usarlos.</p>
<p>Diferencias entre los dos modelos</p>
<p>Aunque se llamen de forma parecida, gpt-oss-120b y gpt-oss-20b no son exactamente lo mismo ni tienen los mismos requisitos. El primer modelo, gpt-oss-120b, alcanza una paridad cercana a OpenAI o4-mini y requiere de al menos 60 GB de memoria gráfica.</p>
<p> Tener tu propio ChatGPT en local es fácil, pero requiere de un equipo a la altura | Imagen: Xataka</p>
<p>Su hermano pequeño, gpt-oss-20b, es algo menos capaz (similar a o3-mini, de acuerdo a OpenAI), pero se puede ejecutar en dispositivos edge. Dicho de otra manera, se puede ejecutar en tu propio ordenador siempre que tenga al menos 16 GB de memoria, preferiblemente gráfica.</p>
<p>En resumen:</p>
<p> gpt-oss-120b: modelo grande, necesita al menos 60 GB de memoria VRAM o unidicada y no es apto para ordenadores de consumo.<br />
 gpt-oss-20b: modelo más pequeño, necesita 16 GB de memoria VRAM o unificada y es apto para ordenadores de consumo.</p>
<p>El que vamos a usar, por motivos evidentes, es gpt-oss-20b.</p>
<p>Consideraciones a tener en cuenta</p>
<p>Ejecutar una IA como esta en local es un proceso intensivo que puede provocar, y seguramente provoque, que tu ordenador se ralentice mucho. Aunque podrías ejecutarlo teniendo 16 GB de memoria RAM, lo ideal es que tu equipo tenga una GPU de gama alta.</p>
<p>¿Qué pasará si tu ordenador tiene menos de 16 GB de memoria VRAM? Que la herramienta usará la memoria RAM, cuya cifra debe ser igual o superior a 16 GB. Si no es así, el sistema no funcionará correctamente. Como recomendación general, lo ideal es dedicar todos los recursos posibles de tu ordenador a la ejecución del modelo, por lo que cierra todo lo que no sea estrictamente necesario.</p>
<p>Instala Ollama en tu ordenador</p>
<p> Instalación de Ollama | Imagen: Xataka</p>
<p>Para este tutorial vamos a usar una aplicación bastante conocida: Ollama. Es una plataforma open source que simplifica, y mucho, la instalación, acceso y uso de LLMs (Large Language Models). Digamos que es un ejecutor de modelos.</p>
<p>ChatGPT es una plataforma online a través de la cual interactuamos con un modelo, como GPT-4o. Ollama es lo mismo, pero en local y con los modelos que tengamos instalados en nuestro ordenador. Es un software gratuito, de código abierto y disponible para Windows, Mac y Linux.</p>
<p>Descarga gpt-oss</p>
<p>Una vez hayamos descargado e instalado el programa en nuestro ordenador nos encontraremos con una interfaz como esta. Si lo deseas, también puedes usar Ollama a la antigua mediante la interfaz de comandos, pero lo cierto es que la interfaz gráfica es mucho más agradable.</p>
<p> Interfaz principal de Ollama | Imagen: Xataka</p>
<p>Si nos fijamos, veremos un desplegable en la zona inferior derecha con el nombre del modelo que estamos usando o que, mejor dicho vamos a usar.</p>
<p> Acceso a los diferentes modelos de IA desde Ollama | Imagen: Xataka</p>
<p>Si pulsamos sobre el desplegable podremos acceder a un buen puñado de modelos, como Deepseek R1, Gemma o Qwen. Para el caso, nos interesa seleccionar &#8220;gpt-oss:20b&#8221;.</p>
<p> Descarga del modelo, ármate de paciencia | Imagen: Xataka</p>
<p>Habiendo seleccionado &#8220;gpt-oss:20b&#8221;, bastará con enviar un mensaje en el chat para que comience la descarga del modelo. Ármate de paciencia, porque pesa 12,8 GB y puede llevar un rato.</p>
<p> Hablando con gpt-oss-20b a través de Ollama | Imagen: Xataka</p>
<p>Una vez esté instalado, podrás empezar a hablar con la IA como si de ChatGPT se tratara. Eso sí, si tu GPU no cumple con los requisitos mínimos verás que es muchísimo más lento que ChatGPT. No en vano, estás ejecutando el modelo en tu ordenador, no en un macrocentro de datos lleno de lo último en GPUs dedicadas de NVIDIA.</p>
<p>Otra opción: LM Studio</p>
<p> LM Studio | Imagen: Xataka</p>
<p>Ollama tiene la ventaja de ser intuitivo, sencillo y directo. Si queremos más opciones, un programa mucho más completo es LM Studio. Este está disponible para Windows, Linux y Mac y, como Ollama, es capaz de gestionar varios modelos, gpt-oss:20b entre ellos.</p>
<p>Es una aplicación más avanzada que nos permite ajustar mejor tanto el comportamiento de nuestro ordenador como el del modelo, aunque exprimirlo al máximo requiere de conocimientos más avanzados.</p>
<p>Imagen de portada | Xataka</p>
<p>En Xataka | Cómo pasar de imagen a vídeo utilizando inteligencia artificial: 14 herramientas gratis imprescindibles</p>
<p> &#8211; La noticia</p>
<p> Cómo instalar los nuevos modelos gpt-oss de OpenAI en tu ordenador para tener tu propio ChatGPT en local </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Jose García</p>
<p> . </p>
<p>​ </p>
<p>​ </p>