Ciencia y Tecnología
El PC está mutando: el futuro se nos llena de estaciones de trabajo de IA para que puedas tener tu ChatGPT en local
<p>
 <img src="https://i.blogs.es/55295a/acer01/1024_2000.jpeg" alt="El PC está mutando: el futuro se nos llena de estaciones de trabajo de IA para que puedas tener tu ChatGPT en local ">
 </p>
</p>
<p>Acer <a rel="noopener, noreferrer" href="https://news.acer.com/acer-unveils-the-veriton-gn100-ai-mini-workstation-built-on-the-nvidia-gb10-superchip">acaba de presentar</a> su Veriton GN100, una pequeña estación de trabajo con un único propósito: permitir que puedas entrenar y correr modelos de IA en local y sin depender de la nube. La propuesta no es del todo nueva, pero apunta a un futuro en el que el PC muta para darnos esa prometedora capacidad de tener una especie de ChatGPT en local.</p>
<p><strong>Un hardware que nos suena</strong>. Este equipo cuenta con un chip NVIDIA GB10 con arquitectura Grace Blackwell, y está acompañado de 128 GB de memoria GDDR5 y 4 TB de almacenamiento. Es prácticamente la misma configuración de la estación de trabajo <a rel="noopener, noreferrer" href="https://www.nvidia.com/en-us/products/workstations/dgx-spark/">DGX Spark de NVIDIA</a>, que se anunció en marzo pero que sigue sin estar a la venta. En ese caso el almacenamiento era de 1 TB, lo que hace que podamos tener menos modelos descargados. </p>
<p><!-- BREAK 1 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/hay-fiebre-chatgpt-funcionarios-publicos-que-no-sabemos-como-nos-va-a-afectar-como-usuarios" class="pivot-outboundlink" data-vars-post-title="Hay una fiebre de ChatGPT entre los funcionarios públicos. Lo que no sabemos es cómo nos va a afectar como usuarios "><br />
 <img alt="Hay una fiebre de ChatGPT entre los funcionarios públicos. Lo que no sabemos es cómo nos va a afectar como usuarios " width="375" height="142" src="https://i.blogs.es/3e099e/oficina/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/hay-fiebre-chatgpt-funcionarios-publicos-que-no-sabemos-como-nos-va-a-afectar-como-usuarios" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="Hay una fiebre de ChatGPT entre los funcionarios públicos. Lo que no sabemos es cómo nos va a afectar como usuarios ">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/hay-fiebre-chatgpt-funcionarios-publicos-que-no-sabemos-como-nos-va-a-afectar-como-usuarios" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="Hay una fiebre de ChatGPT entre los funcionarios públicos. Lo que no sabemos es cómo nos va a afectar como usuarios ">Hay una fiebre de ChatGPT entre los funcionarios públicos. Lo que no sabemos es cómo nos va a afectar como usuarios </a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>Una tendencia al alza</strong>. El nuevo Acer Veriton GN100 es un pequeño paso más que puede confirmar una tendencia interesante: la de poder disfrutar de pequeñas estaciones de trabajo que están específicamente pensadas para que podamos <a class="text-outboundlink" href="https://www.xataka.com/basics/como-instalar-nuevos-modelos-got-oss-openai-tu-ordenador-para-tener-tu-propio-chatgpt-local" data-vars-post-title="Cómo instalar los nuevos modelos gpt-oss de OpenAI en tu ordenador para tener tu propio ChatGPT en local" data-vars-post-url="https://www.xataka.com/basics/como-instalar-nuevos-modelos-got-oss-openai-tu-ordenador-para-tener-tu-propio-chatgpt-local">instalar e incluso entrenar modelos de IA de forma local</a>. </p>
<p><strong>Privacidad por bandera</strong>. Eso es importante sobre todo en materia de privacidad: nuestras conversaciones y uso de esos modelos se mantendrán totalmente privadas, y no hay datos que puedan acabar quedándose en los servidores de OpenAI, Google o Anthropic, por ejemplo. Así, podemos usar datos financieros, médicos o confidenciales sin miedo para consultar con los modelos de IA, porque esa información no sale de nuestro equipo. </p>
<p><!-- BREAK 2 --></p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p><strong>Y potencial ahorro</strong>. No solo eso: poder ejecutar un modelo de IA en local permite evitar gastos en el uso de modelos en la nube, tanto si nos suscribimos a planes como los que plantea por ejemplo <a class="text-outboundlink" href="https://www.xataka.com/basics/chatgpt-plus-que-que-caracteristicas-tiene-cuanto-cuesta-version-pago-esta-inteligencia-artificial" data-vars-post-title="ChatGPT Plus: qué es, diferencias con ChatGPT normal y cuánto cuesta esta inteligencia artificial" data-vars-post-url="https://www.xataka.com/basics/chatgpt-plus-que-que-caracteristicas-tiene-cuanto-cuesta-version-pago-esta-inteligencia-artificial">ChatGPT Plus</a> como si hacemos uso de la API y pagamos por uso. Con el modelo local las consultas nos salen &#8220;gratis&#8221; o casi: lo único que pagamos es el equipo y el consumo energético del mismo.</p>
<p><!-- BREAK 3 --></p>
<p><strong>Pero</strong>. Los modelos que podemos ejecutar en local son modelos abiertos como Llama, DeepSeek R1, Qwen o <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/he-probado-nuevos-modelos-openai-ha-sido-pequena-odisea-premio-tengo-chatgpt-local" data-vars-post-title="He probado los nuevos modelos de OpenAI. Ha sido una pequeña odisea con premio: tengo un ChatGPT en local" data-vars-post-url="https://www.xataka.com/robotica-e-ia/he-probado-nuevos-modelos-openai-ha-sido-pequena-odisea-premio-tengo-chatgpt-local">los nuevos gpt-oss de OpenAI</a>. Con ellos es posible contar con unas prestaciones notables, pero es muy difícil igualar la calidad de los modelos como <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/gpt-5-esta-aqui-asi-lanzamiento-inteligencia-artificial-esperado-openai-carrera-cada-vez-renida" data-vars-post-title='OpenAI lanza GPT-5: un enorme modelo "unificado" con el que la empresa aspira a dar un gran salto respecto a los anteriores' data-vars-post-url="https://www.xataka.com/robotica-e-ia/gpt-5-esta-aqui-asi-lanzamiento-inteligencia-artificial-esperado-openai-carrera-cada-vez-renida">GPT-5</a>, Gemini o <a class="text-outboundlink" href="https://www.xataka.com/basics/claude-4-cuales-novedades-nuevos-modelos-inteligencia-artificial-anthropic" data-vars-post-title="Claude 4: cuáles son las novedades de los nuevos modelos de Inteligencia Artificial de Anthropic" data-vars-post-url="https://www.xataka.com/basics/claude-4-cuales-novedades-nuevos-modelos-inteligencia-artificial-anthropic">Claude 4 Opus</a> porque estos son modelos gigantescos que se ejecutan en centros de datos con miles de GPUs. Competir en ese sentido es prácticamente imposible, pero para ciertos escenarios simplemente no lo necesitamos, y estos modelos Open Source pueden ser una alternativa fantástica.</p>
<p><!-- BREAK 4 --></p>
<div class="article-asset-image article-asset-normal article-asset-center">
<div class="asset-content">
<div class="caption-img ">
<p> <img alt="Acer3" class="" src="https://i.blogs.es/1eb855/acer3/450_1000.jpeg"></p>
<p> <span>Acer Veriton GN100</span>
 </div>
</p></div>
</div>
<p><strong>Memoria gráfica al poder</strong>. Cuanto más grandes son los modelos de IA mejor suelen comportarse, pero hay un problema: para poder usarlos necesitamos mucha memoria gráfica y los PCs actuales no destacan en ese apartado. La gráfica más potentes para consumidores, <a class="text-outboundlink" href="https://www.xataka.com/analisis/nvidia-geforce-rtx-5090-geforce-rtx-5080-analisis-caracteristicas-precio-especificaciones" data-vars-post-title="NVIDIA GeForce RTX 5090 y 5080, análisis: su rendimiento enamora, aunque DLSS 4 lo es todo en estas tarjetas gráficas" data-vars-post-url="https://www.xataka.com/analisis/nvidia-geforce-rtx-5090-geforce-rtx-5080-analisis-caracteristicas-precio-especificaciones">la GeForce RTX 5090</a>, tiene 32 GB de memoria GDDR7, que es fantástica en ancho de banda pero que limita el tamaño de los modelos a ejecutar. </p>
<p><!-- BREAK 5 --></p>
<p><strong>Apple tiene una mano ganadora</strong>. Afortunadamente tenemos alternativas y sobre todo el futuro apunta a cambios relevantes en este ámbito. Por un lado tenemos los Mac Studio con hasta 512 GB de memoria unificada —y además, con un ancho de banda excelente— en los que es posible ejecutar grandes modelos Open Source sin problemas. </p>
<p><!-- BREAK 6 --></p>
<div class="article-asset-table article-asset-normal">
<div class="asset-content">
<table class="tabla-datos">
<thead>
<tr>
<th class="align-left">
<p>Sistema</p>
</th>
<th class="align-left">
<p>Ancho de banda de la memoria (GB/s)</p>
</th>
</tr>
</thead>
<tbody>
<tr>
<th class="align-left">
<p>NVIDIA GeForce RTX 5090 (GDDR7)</p>
</th>
<td class="align-left">
<p>1.792</p>
</td>
</tr>
<tr>
<th class="align-left">
<p>Mac Studio M3 Ultra (memoria unificada)</p>
</th>
<td class="align-left">
<p>819</p>
</td>
</tr>
<tr>
<th class="align-left">
<p>NVIDIA DGX Spark (memoria unificada LPDDR5x)</p>
</th>
<td class="align-left">
<p>273</p>
</td>
</tr>
<tr>
<th class="align-left">
<p>Framework Desktop (memoria LPDDR5x)</p>
</th>
<td class="align-left">
<p>256</p>
</td>
</tr>
</tbody>
</table></div>
</div>
<p><strong>Pero los PCs también comienzan a apuntar alto</strong>. Por otro, <a class="text-outboundlink" href="https://www.xataka.com/ordenadores/malo-framework-desktop-que-tiene-memoria-soldada-bueno-tambien" data-vars-post-title="Queríamos un PC ideal para poder experimentar con modelos locales de IA. El Framework Desktop es la respuesta a nuestras plegarias" data-vars-post-url="https://www.xataka.com/ordenadores/malo-framework-desktop-que-tiene-memoria-soldada-bueno-tambien">equipos como el Framework Desktop</a> que cuentan con un sistema similar de memoria y que incluyen 128 GB de memoria GDDR5 también habilitan esa posibilidad. Las estaciones de trabajo de NVIDIA y Acer usan un esquema muy similar y también integran 128 GB de memoria GDDR5 con un ancho de banda decente —pero no espectacular— para aplicaciones de IA </p>
<p><strong>Esto promete</strong>. Estamos pues ante el potencial despegue de una tendencia en el mercado de los PCs. Hasta ahora los fabricantes se habían especializado en equipos gaming, pero el auge de la inteligencia artificial permite vislumbrar un futuro en el que tengamos &#8220;PCs para la IA&#8221; que cuenten con ingentes cantidades de memoria gráfica y que sean perfectos para este ámbito. </p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/gpu-b300-nueva-bestia-nvidia-para-ia-sabemos-que-prepara-para-2026-2027" data-vars-post-title="La GPU B300 es la nueva bestia de NVIDIA para IA. Y ya sabemos qué prepara para 2026 y 2027" data-vars-post-url="https://www.xataka.com/robotica-e-ia/gpu-b300-nueva-bestia-nvidia-para-ia-sabemos-que-prepara-para-2026-2027">La GPU B300 es la nueva bestia de NVIDIA para IA. Y ya sabemos qué prepara para 2026 y 2027</a></p>
<p></p>
<p><!-- BREAK 7 --></p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/pc-esta-mutando-futuro-se-nos-llena-estaciones-trabajo-ia-puedas-tener-tu-chatgpt-local?utm_source=feedburner&;utm_medium=feed&;utm_campaign=04_Sep_2025"><br />
 <em> El PC está mutando: el futuro se nos llena de estaciones de trabajo de IA para que puedas tener tu ChatGPT en local </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=04_Sep_2025"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/javier-pastor?utm_source=feedburner&;utm_medium=feed&;utm_campaign=04_Sep_2025"><br />
 Javier Pastor<br />
 </a><br />
 . </p>
<p>​Acer acaba de presentar su Veriton GN100, una pequeña estación de trabajo con un único propósito: permitir que puedas entrenar y correr modelos de IA en local y sin depender de la nube. La propuesta no es del todo nueva, pero apunta a un futuro en el que el PC muta para darnos esa prometedora capacidad de tener una especie de ChatGPT en local.Un hardware que nos suena. Este equipo cuenta con un chip NVIDIA GB10 con arquitectura Grace Blackwell, y está acompañado de 128 GB de memoria GDDR5 y 4 TB de almacenamiento. Es prácticamente la misma configuración de la estación de trabajo DGX Spark de NVIDIA, que se anunció en marzo pero que sigue sin estar a la venta. En ese caso el almacenamiento era de 1 TB, lo que hace que podamos tener menos modelos descargados. </p>
<p> En Xataka</p>
<p> Hay una fiebre de ChatGPT entre los funcionarios públicos. Lo que no sabemos es cómo nos va a afectar como usuarios </p>
<p>Una tendencia al alza. El nuevo Acer Veriton GN100 es un pequeño paso más que puede confirmar una tendencia interesante: la de poder disfrutar de pequeñas estaciones de trabajo que están específicamente pensadas para que podamos instalar e incluso entrenar modelos de IA de forma local. Privacidad por bandera. Eso es importante sobre todo en materia de privacidad: nuestras conversaciones y uso de esos modelos se mantendrán totalmente privadas, y no hay datos que puedan acabar quedándose en los servidores de OpenAI, Google o Anthropic, por ejemplo. Así, podemos usar datos financieros, médicos o confidenciales sin miedo para consultar con los modelos de IA, porque esa información no sale de nuestro equipo. </p>
<p>Y potencial ahorro. No solo eso: poder ejecutar un modelo de IA en local permite evitar gastos en el uso de modelos en la nube, tanto si nos suscribimos a planes como los que plantea por ejemplo ChatGPT Plus como si hacemos uso de la API y pagamos por uso. Con el modelo local las consultas nos salen &#8220;gratis&#8221; o casi: lo único que pagamos es el equipo y el consumo energético del mismo.</p>
<p>Pero. Los modelos que podemos ejecutar en local son modelos abiertos como Llama, DeepSeek R1, Qwen o los nuevos gpt-oss de OpenAI. Con ellos es posible contar con unas prestaciones notables, pero es muy difícil igualar la calidad de los modelos como GPT-5, Gemini o Claude 4 Opus porque estos son modelos gigantescos que se ejecutan en centros de datos con miles de GPUs. Competir en ese sentido es prácticamente imposible, pero para ciertos escenarios simplemente no lo necesitamos, y estos modelos Open Source pueden ser una alternativa fantástica.</p>
<p> Acer Veriton GN100</p>
<p>Memoria gráfica al poder. Cuanto más grandes son los modelos de IA mejor suelen comportarse, pero hay un problema: para poder usarlos necesitamos mucha memoria gráfica y los PCs actuales no destacan en ese apartado. La gráfica más potentes para consumidores, la GeForce RTX 5090, tiene 32 GB de memoria GDDR7, que es fantástica en ancho de banda pero que limita el tamaño de los modelos a ejecutar. </p>
<p>Apple tiene una mano ganadora. Afortunadamente tenemos alternativas y sobre todo el futuro apunta a cambios relevantes en este ámbito. Por un lado tenemos los Mac Studio con hasta 512 GB de memoria unificada —y además, con un ancho de banda excelente— en los que es posible ejecutar grandes modelos Open Source sin problemas. </p>
<p> Sistema</p>
<p> Ancho de banda de la memoria (GB/s)</p>
<p> NVIDIA GeForce RTX 5090 (GDDR7)</p>
<p> 1.792</p>
<p> Mac Studio M3 Ultra (memoria unificada)</p>
<p> 819</p>
<p> NVIDIA DGX Spark (memoria unificada LPDDR5x)</p>
<p> 273</p>
<p> Framework Desktop (memoria LPDDR5x)</p>
<p> 256</p>
<p>Pero los PCs también comienzan a apuntar alto. Por otro, equipos como el Framework Desktop que cuentan con un sistema similar de memoria y que incluyen 128 GB de memoria GDDR5 también habilitan esa posibilidad. Las estaciones de trabajo de NVIDIA y Acer usan un esquema muy similar y también integran 128 GB de memoria GDDR5 con un ancho de banda decente —pero no espectacular— para aplicaciones de IA Esto promete. Estamos pues ante el potencial despegue de una tendencia en el mercado de los PCs. Hasta ahora los fabricantes se habían especializado en equipos gaming, pero el auge de la inteligencia artificial permite vislumbrar un futuro en el que tengamos &#8220;PCs para la IA&#8221; que cuenten con ingentes cantidades de memoria gráfica y que sean perfectos para este ámbito. En Xataka | La GPU B300 es la nueva bestia de NVIDIA para IA. Y ya sabemos qué prepara para 2026 y 2027</p>
<p> &#8211; La noticia</p>
<p> El PC está mutando: el futuro se nos llena de estaciones de trabajo de IA para que puedas tener tu ChatGPT en local </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Javier Pastor</p>
<p> . </p>
<p>​ </p>
<p>​ </p>