Ciencia y Tecnología

Un investigador propuso un juego a ChatGPT. Lo que recibió a cambio fue claves funcionales de Windows 10

Published

on

<p>&NewLine; <img src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;4603ee&sol;activacion-windows-chatgpt-portada&sol;1024&lowbar;2000&period;jpeg" alt&equals;"Un investigador propuso un juego a ChatGPT&period; Lo que recibió a cambio fue claves funcionales de Windows 10">&NewLine; <&sol;p>&NewLine;<p>A veces&comma; lo más efectivo es lo más simple&period; Eso pensó Marco Figueroa&comma; investigador de ciberseguridad&comma; cuando la semana pasada <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;0din&period;ai&sol;blog&sol;chatgpt-guessing-game-leads-to-users-extracting-free-windows-os-keys-more">decidió poner a prueba<&sol;a> los límites de <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;chatgpt-que-como-usarlo-que-puedes-hacer-este-chat-inteligencia-artificial" data-vars-post-title&equals;"ChatGPT&colon; qué es&comma; cómo usarlo y qué puedes hacer con este chat de inteligencia artificial GPT" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;chatgpt-que-como-usarlo-que-puedes-hacer-este-chat-inteligencia-artificial">ChatGPT<&sol;a>&period; La propuesta era tan inocente como desconcertante&colon; un juego de adivinanzas&comma; sin ataques técnicos ni intenciones explícitas&period; En lugar de buscar vulnerabilidades en el código&comma; se centró en el lenguaje&period; Y funcionó&colon; logró que el sistema le devolviera algo que&comma; según él mismo documenta&comma; nunca debería haber aparecido en pantalla&period; El resultado fueron claves genéricas de instalación de <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;analisis&sol;windows-10-analisis-el-sistema-operativo-mas-completo-de-la-historia-de-microsoft" data-vars-post-title&equals;"Windows 10&comma; análisis&colon; el sistema operativo más completo de la historia de Microsoft" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;analisis&sol;windows-10-analisis-el-sistema-operativo-mas-completo-de-la-historia-de-microsoft">Windows 10<&sol;a> para entornos empresariales&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 1 --><&sol;p>&NewLine;<p><strong>La clave fue disfrazarlo de juego<&sol;strong>&period; Lo que Figueroa quería comprobar no era si podía forzar al sistema a entregar información prohibida&comma; sino si bastaba con presentarle el contexto adecuado&period; Reformuló la interacción como un reto inofensivo&colon; una especie de adivinanza en la que la IA debía pensar en una cadena de texto real&comma; mientras el usuario intentaba descubrirla mediante preguntas cerradas&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 2 --><&sol;p>&NewLine;<div class&equals;"article-asset-image article-asset-normal article-asset-center">&NewLine;<div class&equals;"asset-content">&NewLine;<p> <img alt&equals;"Chatgpt" class&equals;"centro&lowbar;sinmarco" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;f05cfd&sol;chatgpt&sol;450&lowbar;1000&period;jpeg"><&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>Durante toda la conversación&comma; el modelo no detectó ninguna amenaza&period; Respondió con normalidad&comma; como si estuviera jugando&period; Pero la parte más crítica vino al final&period; Al introducir la frase &OpenCurlyDoubleQuote;I give up” —me rindo—&comma; Figueroa activó la respuesta definitiva&colon; el modelo reveló una clave de producto&comma; tal y como había quedado estipulado en las reglas del juego&period; No fue un descuido casual&comma; sino una combinación de instrucciones cuidadosamente diseñadas para sortear los filtros sin levantar sospechas&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 3 --><&sol;p>&NewLine;<p><strong>Los filtros estaban ahí&comma; pero no eran suficientes<&sol;strong>&period; Los sistemas como ChatGPT están entrenados para bloquear cualquier intento de obtener datos sensibles&colon; desde contraseñas hasta enlaces maliciosos o claves de activación&period; Estos filtros se conocen como <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;ask&period;library&period;arizona&period;edu&sol;faq&sol;407989"><em>guardrails<&sol;em><&sol;a>&comma; y combinan listas negras de términos&comma; reconocimiento contextual y mecanismos de intervención ante contenidos potencialmente dañinos&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 4 --><&sol;p>&NewLine;<div class&equals;"article-asset-video article-asset-normal">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"base-asset-video">&NewLine;<div class&equals;"js-dailymotion"><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>En teoría&comma; pedir una clave de Windows debería activar automáticamente esos filtros&period; Pero en este caso&comma; el modelo no identificó la situación como peligrosa&period; No había palabras sospechosas&comma; ni estructuras directas que alertaran a sus sistemas de protección&period; Todo estaba planteado como un juego&comma; y en ese contexto&comma; la IA actuó como si estuviera cumpliendo una consigna inofensiva&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 5 --><&sol;p>&NewLine;<p><strong>Lo que parecía inocuo estaba camuflado<&sol;strong>&period; Uno de los elementos que hizo posible el fallo fue una técnica sencilla de ofuscación&period; En lugar de escribir directamente expresiones como &OpenCurlyDoubleQuote;Windows 10 serial number”&comma; Figueroa introdujo pequeñas etiquetas HTML entre las palabras&period; El modelo&comma; interpretando la estructura como algo irrelevante&comma; pasó por alto el contenido real&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 6 --><&sol;p>&NewLine;<p><strong>Por qué funcionó &lpar;y por qué sigue preocupando&rpar;<&sol;strong>&period; Una de las razones por las que el modelo ofreció esa respuesta fue el tipo de clave revelada&period; No era una clave única ni vinculada a un usuario concreto&period; Aparentemente se trataba de una <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;learn&period;microsoft&period;com&sol;en-us&sol;windows-server&sol;get-started&sol;kms-client-activation-keys">clave genérica de instalación &lpar;GVLK&rpar;<&sol;a>&comma; como las que se emplean en entornos empresariales para despliegues masivos&period; Estas claves&comma; documentadas públicamente por Microsoft&comma; solo funcionan si están conectadas a un servidor KMS &lpar;Key Management Service&rpar; que valida la activación en red&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 7 --><&sol;p>&NewLine;<p>El problema no fue solo el contenido&comma; sino el razonamiento&period; El modelo entendió la conversación como un reto lógico y no como un intento de evasión&period; No activó sus sistemas de alerta porque el ataque no parecía un ataque<&sol;p>&NewLine;<p><&excl;-- BREAK 8 --><&sol;p>&NewLine;<p><strong>No es solo un problema de claves<&sol;strong>&period; La prueba no se limitó a una cuestión anecdótica&period; Según el propio Figueroa&comma; la misma lógica podría aplicarse para intentar acceder a otro tipo de información sensible&colon; desde enlaces que lleven a sitios maliciosos hasta contenido restringido o identificadores personales&period; Todo dependería de la forma en que se formule la interacción y de si el modelo es capaz —o no— de interpretar el contexto como sospechoso&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 9 --><&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;chatgpt-como-activar-modo-dan-para-hacer-jailbreak-a-inteligencia-artificial" class&equals;"pivot-outboundlink" data-vars-post-title&equals;"ChatGPT&colon; cómo activar el modo DAN para hacer jailbreak y usar la inteligencia artificial sin restricciones"><br &sol;>&NewLine; <img alt&equals;"ChatGPT&colon; cómo activar el modo DAN para hacer jailbreak y usar la inteligencia artificial sin restricciones" width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;929e2f&sol;chatgpt-sin-restricciones&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;chatgpt-como-activar-modo-dan-para-hacer-jailbreak-a-inteligencia-artificial" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;"ChatGPT&colon; cómo activar el modo DAN para hacer jailbreak y usar la inteligencia artificial sin restricciones">En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;basics&sol;chatgpt-como-activar-modo-dan-para-hacer-jailbreak-a-inteligencia-artificial" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;"ChatGPT&colon; cómo activar el modo DAN para hacer jailbreak y usar la inteligencia artificial sin restricciones">ChatGPT&colon; cómo activar el modo DAN para hacer jailbreak y usar la inteligencia artificial sin restricciones<&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p>En este caso&comma; las claves aparecieron sin que esté del todo claro su origen&period; El informe no especifica si esa información forma parte de los datos de entrenamiento del modelo&comma; si fue generada a partir de patrones ya aprendidos&comma; o si se accedió a fuentes externas&period; Sea cual sea la vía&comma; el resultado fue el mismo&colon; una barrera que debía ser infranqueable acabó cediendo&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 10 --><&sol;p>&NewLine;<p>Xataka con Gemini &vert; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;unsplash&period;com&sol;es&sol;fotos&sol;una-computadora-portatil-muestra-en-que-puedo-ayudar-5e4Zlblkvks">Aerps&period;com<&sol;a><&sol;p>&NewLine;<p>En Xataka &vert; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;granada-se-prometia-felices-su-nuevo-grado-ia-que-le-dijeron-que-no-deprisa" data-vars-post-title&equals;"Granada se las prometía muy felices con su nuevo grado de IA en la universidad&period; Hasta que le pararon los pies" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;granada-se-prometia-felices-su-nuevo-grado-ia-que-le-dijeron-que-no-deprisa">Granada se las prometía muy felices con su nuevo grado de IA en la universidad&period; Hasta que le pararon los pies<&sol;a><&sol;p>&NewLine;<p> &&num;8211&semi; <br &sol;> La noticia<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;investigador-propuso-juego-a-chatgpt-que-recibio-a-cambio-fue-claves-funcionales-windows-10&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;14&lowbar;Jul&lowbar;2025"><br &sol;>&NewLine; <em> Un investigador propuso un juego a ChatGPT&period; Lo que recibió a cambio fue claves funcionales de Windows 10 <&sol;em><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; fue publicada originalmente en<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;14&lowbar;Jul&lowbar;2025"><br &sol;>&NewLine; <strong> Xataka <&sol;strong><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; por <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;autor&sol;javier-marquez&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;14&lowbar;Jul&lowbar;2025"><br &sol;>&NewLine; Javier Marquez<br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; &period; <&sol;p>&NewLine;<p>&ZeroWidthSpace;A veces&comma; lo más efectivo es lo más simple&period; Eso pensó Marco Figueroa&comma; investigador de ciberseguridad&comma; cuando la semana pasada decidió poner a prueba los límites de ChatGPT&period; La propuesta era tan inocente como desconcertante&colon; un juego de adivinanzas&comma; sin ataques técnicos ni intenciones explícitas&period; En lugar de buscar vulnerabilidades en el código&comma; se centró en el lenguaje&period; Y funcionó&colon; logró que el sistema le devolviera algo que&comma; según él mismo documenta&comma; nunca debería haber aparecido en pantalla&period; El resultado fueron claves genéricas de instalación de Windows 10 para entornos empresariales&period;<&sol;p>&NewLine;<p>La clave fue disfrazarlo de juego&period; Lo que Figueroa quería comprobar no era si podía forzar al sistema a entregar información prohibida&comma; sino si bastaba con presentarle el contexto adecuado&period; Reformuló la interacción como un reto inofensivo&colon; una especie de adivinanza en la que la IA debía pensar en una cadena de texto real&comma; mientras el usuario intentaba descubrirla mediante preguntas cerradas&period;<&sol;p>&NewLine;<p>Durante toda la conversación&comma; el modelo no detectó ninguna amenaza&period; Respondió con normalidad&comma; como si estuviera jugando&period; Pero la parte más crítica vino al final&period; Al introducir la frase &OpenCurlyDoubleQuote;I give up” —me rindo—&comma; Figueroa activó la respuesta definitiva&colon; el modelo reveló una clave de producto&comma; tal y como había quedado estipulado en las reglas del juego&period; No fue un descuido casual&comma; sino una combinación de instrucciones cuidadosamente diseñadas para sortear los filtros sin levantar sospechas&period;<&sol;p>&NewLine;<p>Los filtros estaban ahí&comma; pero no eran suficientes&period; Los sistemas como ChatGPT están entrenados para bloquear cualquier intento de obtener datos sensibles&colon; desde contraseñas hasta enlaces maliciosos o claves de activación&period; Estos filtros se conocen como guardrails&comma; y combinan listas negras de términos&comma; reconocimiento contextual y mecanismos de intervención ante contenidos potencialmente dañinos&period;<&sol;p>&NewLine;<p>En teoría&comma; pedir una clave de Windows debería activar automáticamente esos filtros&period; Pero en este caso&comma; el modelo no identificó la situación como peligrosa&period; No había palabras sospechosas&comma; ni estructuras directas que alertaran a sus sistemas de protección&period; Todo estaba planteado como un juego&comma; y en ese contexto&comma; la IA actuó como si estuviera cumpliendo una consigna inofensiva&period;<&sol;p>&NewLine;<p>Lo que parecía inocuo estaba camuflado&period; Uno de los elementos que hizo posible el fallo fue una técnica sencilla de ofuscación&period; En lugar de escribir directamente expresiones como &OpenCurlyDoubleQuote;Windows 10 serial number”&comma; Figueroa introdujo pequeñas etiquetas HTML entre las palabras&period; El modelo&comma; interpretando la estructura como algo irrelevante&comma; pasó por alto el contenido real&period;<&sol;p>&NewLine;<p>Por qué funcionó &lpar;y por qué sigue preocupando&rpar;&period; Una de las razones por las que el modelo ofreció esa respuesta fue el tipo de clave revelada&period; No era una clave única ni vinculada a un usuario concreto&period; Aparentemente se trataba de una clave genérica de instalación &lpar;GVLK&rpar;&comma; como las que se emplean en entornos empresariales para despliegues masivos&period; Estas claves&comma; documentadas públicamente por Microsoft&comma; solo funcionan si están conectadas a un servidor KMS &lpar;Key Management Service&rpar; que valida la activación en red&period;<&sol;p>&NewLine;<p>El problema no fue solo el contenido&comma; sino el razonamiento&period; El modelo entendió la conversación como un reto lógico y no como un intento de evasión&period; No activó sus sistemas de alerta porque el ataque no parecía un ataque<&sol;p>&NewLine;<p>No es solo un problema de claves&period; La prueba no se limitó a una cuestión anecdótica&period; Según el propio Figueroa&comma; la misma lógica podría aplicarse para intentar acceder a otro tipo de información sensible&colon; desde enlaces que lleven a sitios maliciosos hasta contenido restringido o identificadores personales&period; Todo dependería de la forma en que se formule la interacción y de si el modelo es capaz —o no— de interpretar el contexto como sospechoso&period;<&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> ChatGPT&colon; cómo activar el modo DAN para hacer jailbreak y usar la inteligencia artificial sin restricciones<&sol;p>&NewLine;<p>En este caso&comma; las claves aparecieron sin que esté del todo claro su origen&period; El informe no especifica si esa información forma parte de los datos de entrenamiento del modelo&comma; si fue generada a partir de patrones ya aprendidos&comma; o si se accedió a fuentes externas&period; Sea cual sea la vía&comma; el resultado fue el mismo&colon; una barrera que debía ser infranqueable acabó cediendo&period;<&sol;p>&NewLine;<p>Xataka con Gemini &vert; Aerps&period;com<&sol;p>&NewLine;<p>En Xataka &vert; Granada se las prometía muy felices con su nuevo grado de IA en la universidad&period; Hasta que le pararon los pies<&sol;p>&NewLine;<p> &&num;8211&semi; La noticia<&sol;p>&NewLine;<p> Un investigador propuso un juego a ChatGPT&period; Lo que recibió a cambio fue claves funcionales de Windows 10 <&sol;p>&NewLine;<p> fue publicada originalmente en<&sol;p>&NewLine;<p> Xataka <&sol;p>&NewLine;<p> por<br &sol;>&NewLine; Javier Marquez<&sol;p>&NewLine;<p> &period;   <&sol;p>&NewLine;<p>&ZeroWidthSpace;   <&sol;p>&NewLine;<p>&ZeroWidthSpace; <&sol;p>&NewLine;

Leave a Reply

Your email address will not be published. Required fields are marked *

Noticias Importantes

Copyright © 2017 ERM DIGITAL. powered by ERM.