Ciencia y Tecnología
“La seguridad de nuestros hijos no está en venta”: ya está aquí la primera ley que regula los ‘amigos IA’
<p>
 <img src="https://i.blogs.es/837d4c/ai-companion/1024_2000.jpeg" alt="";La seguridad de nuestros hijos no está en venta";: ya está aquí la primera ley que regula los 'amigos IA' ">
 </p>
</p>
<p>El debate sobre los efectos de la IA en la salud mental está empezando a transformarse en medidas tangibles. OpenAI anunció el <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/openai-permite-a-padres-limitar-uso-chatgpt-a-sus-hijos-asi-funcionan-nuevos-controles-parentales" data-vars-post-title="OpenAI ya permite a los padres limitar el uso de ChatGPT a sus hijos: así funcionan los nuevos controles parentales" data-vars-post-url="https://www.xataka.com/robotica-e-ia/openai-permite-a-padres-limitar-uso-chatgpt-a-sus-hijos-asi-funcionan-nuevos-controles-parentales">control parental de ChatGPT</a> tras la <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/suicidio-adolescente-desato-crisis-openai-tenemos-primeras-medidas-que-llegaran-a-chatgpt" data-vars-post-title="ChatGPT tendrá control parental: OpenAI mueve ficha tras ser demandada por el suicidio de un adolescente" data-vars-post-url="https://www.xataka.com/robotica-e-ia/suicidio-adolescente-desato-crisis-openai-tenemos-primeras-medidas-que-llegaran-a-chatgpt">demanda por el suicidio de un adolescente</a> y ahora tenemos la primera ley que regula a los llamados amigos o <a rel="noopener, noreferrer" href="https://en.wikipedia.org/wiki/Artificial_human_companion">compañeros IA</a> popularizados por apps como <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/usuarios-que-amaban-a-maquinas-replika-chatbot-que-enamoro-a-sus-usuarios-ahora-quiere-seducirlos-nuevo" data-vars-post-title="Replika es el chatbot que enamoró a sus usuarios, los desengañó y ahora quiere seducirlos de nuevo" data-vars-post-url="https://www.xataka.com/robotica-e-ia/usuarios-que-amaban-a-maquinas-replika-chatbot-que-enamoro-a-sus-usuarios-ahora-quiere-seducirlos-nuevo">Replika </a>o <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/character-ai-esta-acompanando-enamorando-a-sus-usuarios-eso-maravilloso-que-deja-serlo" data-vars-post-title="Character.AI está acompañándo y enamorando a sus usuarios. Eso es maravilloso hasta que deja de serlo" data-vars-post-url="https://www.xataka.com/robotica-e-ia/character-ai-esta-acompanando-enamorando-a-sus-usuarios-eso-maravilloso-que-deja-serlo">Character.AI</a>.</p>
<p><strong>Qué ha pasado.</strong> El gobernador de California, Gavin Newsom, acaba de firmar la primera ley para controlar los compañeros IA, tal y como cuentan en <a rel="noopener, noreferrer" href="https://techcrunch.com/2025/10/13/california-becomes-first-state-to-regulate-ai-companion-chatbots/">TechCrunch</a>. “Podemos seguir liderando el campo de la inteligencia artificial y la tecnología, pero debemos hacerlo de forma responsable, protegiendo a nuestros hijos en cada paso del camino. La seguridad de nuestros hijos no está en venta”, aseguró el gobernador en <a rel="noopener, noreferrer" href="https://www.cnbc.com/2025/10/14/heres-what-californias-new-ai-social-media-laws-mean-for-big-tech.html">un comunicado</a>.</p>
<p><!-- BREAK 1 --></p>
<div class="article-asset article-asset-normal article-asset-center">
<div class="desvio-container">
<div class="desvio">
<div class="desvio-figure js-desvio-figure">
 <a href="https://www.xataka.com/robotica-e-ia/gran-brecha-genero-ia-eeuu-se-esta-obsesionando-novias-virtuales-china-novios" class="pivot-outboundlink" data-vars-post-title="La gran brecha de género de la IA: EEUU se está obsesionando con las novias virtuales, China con los novios "><br />
 <img alt="La gran brecha de género de la IA: EEUU se está obsesionando con las novias virtuales, China con los novios " width="375" height="142" src="https://i.blogs.es/11b53a/novios-novias-ia/375_142.jpeg"><br />
 </a>
 </div>
<div class="desvio-summary">
<div class="desvio-taxonomy js-desvio-taxonomy">
 <a href="https://www.xataka.com/robotica-e-ia/gran-brecha-genero-ia-eeuu-se-esta-obsesionando-novias-virtuales-china-novios" class="desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title="La gran brecha de género de la IA: EEUU se está obsesionando con las novias virtuales, China con los novios ">En Xataka</a>
 </div>
<p> <a href="https://www.xataka.com/robotica-e-ia/gran-brecha-genero-ia-eeuu-se-esta-obsesionando-novias-virtuales-china-novios" class="desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title="La gran brecha de género de la IA: EEUU se está obsesionando con las novias virtuales, China con los novios ">La gran brecha de género de la IA: EEUU se está obsesionando con las novias virtuales, China con los novios </a>
 </div>
</p></div>
</p></div>
</div>
<p><strong>Por qué es importante</strong>. Hay <a rel="noopener, noreferrer" href="https://www.nysenate.gov/legislation/bills/2025/A6767">otras propuestas sobre la mesa</a> en Estados Unidos, pero California es el primer estado que eleva a ley el asunto de los compañeros IA. Los riesgos de usar este tipo de chatbots, especialmente entre los adolescentes, ya no son <a rel="noopener, noreferrer" href="https://www.aa.com.tr/en/world/study-warns-chatgpt-can-bypass-safeguards-give-harmful-advice-to-children/3659821">advertencias de los expertos</a>, ahora habrá consecuencias legales. Las empresas que no cumplan las normas podrán enfrentarse a multas de hasta 250.000 dólares. </p>
<p><!-- BREAK 2 --></p>
<p><strong>Qué es un compañero IA</strong>. Son chatbots que buscan replicar una conexión humana y pueden ofrecer desde apoyo emocional hasta relaciones íntimas. Por su diseño, son la forma de IA más sensible en cuanto a posibles efectos sobre la salud mental. Las apps más populares son Replika y Character.AI, pero también <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/cientos-personas-asistieron-a-funeral-todo-normal-excepto-porque-difunto-era-modelo-ia-que-habia-sido-retirado" data-vars-post-title='La gente está celebrando funerales por modelos IA retirados por un motivo: no son una "herramienta" sino un apoyo' data-vars-post-url="https://www.xataka.com/robotica-e-ia/cientos-personas-asistieron-a-funeral-todo-normal-excepto-porque-difunto-era-modelo-ia-que-habia-sido-retirado">hay quien entabla este tipo de conexiones con chatbots IA “normales”</a> como ChatGPT o Claude. Incluso existen empresas que <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/hay-gente-resucitando-a-sus-muertos-ia-cuestion-ahora-difuntos-estarian-acuerdo" data-vars-post-title='El viejo sueño de "resucitar" a un ser querido se está haciendo realidad gracias a la IA. Y hay todo un negocio detrás' data-vars-post-url="https://www.xataka.com/robotica-e-ia/hay-gente-resucitando-a-sus-muertos-ia-cuestion-ahora-difuntos-estarian-acuerdo">“resucitan” a un ser querido con el uso de IA</a> para ayudar a sobrellevar el duelo (aunque los expertos creen que se <a rel="noopener, noreferrer" href="https://www.euronews.com/next/2023/03/12/the-rise-of-grief-tech-ai-is-being-used-to-bring-the-people-you-love-back-from-the-dead">consigue justo lo contrario</a>).</p>
<p><!-- BREAK 3 --></p>
<div class="article-asset-video article-asset-normal">
<div class="asset-content">
<div class="base-asset-video">
<div class="js-dailymotion"></div>
</p></div>
</p></div>
</div>
<p><strong>Qué dice la ley.</strong> Entrará en vigor el 1 de enero de 2026 y está pensada especialmente para proteger a los usuarios más jóvenes. Entre <a rel="noopener, noreferrer" href="https://legiscan.com/CA/text/SB243/id/3260569">las medidas que incluye</a> está la obligación de que las empresas integren sistemas de verificación de edad. Además, deberán mostrar advertencias que dejen claro a los usuarios que las interacciones están generadas por IA, así como integrar protocolos de detección de suicidio o autolesiones. </p>
<p><!-- BREAK 4 --></p>
<p><strong>Otras medidas.</strong> Como decíamos al principio, la demanda de los padres del adolescente que discutió sus planes de suicidio con ChatGPT desató una crisis en OpenAI, que pronto anunció <a class="text-outboundlink" href="https://www.xataka.com/basics/control-parental-chatgpt-como-configurarlo-que-opciones-hay-para-controlar-que-pueden-hacer-tus-hijos-inteligencia-artificial" data-vars-post-title="Control parental de ChatGPT: cómo configurarlo y qué opciones hay para controlar lo que pueden hacer tus hijos con la inteligencia artificial" data-vars-post-url="https://www.xataka.com/basics/control-parental-chatgpt-como-configurarlo-que-opciones-hay-para-controlar-que-pueden-hacer-tus-hijos-inteligencia-artificial">nuevas salvaguardas para ChatGPT como el control parental</a>. Las apps de compañeros IA también están llevando este tema a su discurso. Character AI ya cuenta con <a rel="noopener, noreferrer" href="https://policies.character.ai/safety">herramientas parentales</a> y Replika aseguró a TechCrunch que dedican muchos recursos para filtrar contenido y dirigir a usuarios en situaciones complicadas a líneas de ayuda.</p>
<p><!-- BREAK 5 --></p>
<p>En Xataka | <a class="text-outboundlink" href="https://www.xataka.com/robotica-e-ia/tres-parejas-se-fueron-escapada-romantica-llamativo-que-parejas-eran-humano-ia" data-vars-post-title="Los humanos nos estamos enamorando de IAs y no son casos aislados: ya se cuentan por miles" data-vars-post-url="https://www.xataka.com/robotica-e-ia/tres-parejas-se-fueron-escapada-romantica-llamativo-que-parejas-eran-humano-ia">Los humanos nos estamos enamorando de IAs y no son casos aislados: ya se cuentan por miles</a></p>
<p> &#8211; <br /> La noticia<br />
 <a href="https://www.xataka.com/robotica-e-ia/seguridad-nuestros-hijos-no-esta-venta-esta-aqui-primera-ley-que-regula-amigos-ia?utm_source=feedburner&;utm_medium=feed&;utm_campaign=15_Oct_2025"><br />
 <em> &#8220;La seguridad de nuestros hijos no está en venta&#8221;: ya está aquí la primera ley que regula los &#8216;amigos IA&#8217; </em><br />
 </a><br />
 fue publicada originalmente en<br />
 <a href="https://www.xataka.com/?utm_source=feedburner&;utm_medium=feed&;utm_campaign=15_Oct_2025"><br />
 <strong> Xataka </strong><br />
 </a><br />
 por <a href="https://www.xataka.com/autor/amparo-babiloni?utm_source=feedburner&;utm_medium=feed&;utm_campaign=15_Oct_2025"><br />
 Amparo Babiloni<br />
 </a><br />
 . </p>
<p>​El debate sobre los efectos de la IA en la salud mental está empezando a transformarse en medidas tangibles. OpenAI anunció el control parental de ChatGPT tras la demanda por el suicidio de un adolescente y ahora tenemos la primera ley que regula a los llamados amigos o compañeros IA popularizados por apps como Replika o Character.AI.Qué ha pasado. El gobernador de California, Gavin Newsom, acaba de firmar la primera ley para controlar los compañeros IA, tal y como cuentan en TechCrunch. “Podemos seguir liderando el campo de la inteligencia artificial y la tecnología, pero debemos hacerlo de forma responsable, protegiendo a nuestros hijos en cada paso del camino. La seguridad de nuestros hijos no está en venta”, aseguró el gobernador en un comunicado.</p>
<p> En Xataka</p>
<p> La gran brecha de género de la IA: EEUU se está obsesionando con las novias virtuales, China con los novios </p>
<p>Por qué es importante. Hay otras propuestas sobre la mesa en Estados Unidos, pero California es el primer estado que eleva a ley el asunto de los compañeros IA. Los riesgos de usar este tipo de chatbots, especialmente entre los adolescentes, ya no son advertencias de los expertos, ahora habrá consecuencias legales. Las empresas que no cumplan las normas podrán enfrentarse a multas de hasta 250.000 dólares. </p>
<p>Qué es un compañero IA. Son chatbots que buscan replicar una conexión humana y pueden ofrecer desde apoyo emocional hasta relaciones íntimas. Por su diseño, son la forma de IA más sensible en cuanto a posibles efectos sobre la salud mental. Las apps más populares son Replika y Character.AI, pero también hay quien entabla este tipo de conexiones con chatbots IA “normales” como ChatGPT o Claude. Incluso existen empresas que “resucitan” a un ser querido con el uso de IA para ayudar a sobrellevar el duelo (aunque los expertos creen que se consigue justo lo contrario).</p>
<p>Qué dice la ley. Entrará en vigor el 1 de enero de 2026 y está pensada especialmente para proteger a los usuarios más jóvenes. Entre las medidas que incluye está la obligación de que las empresas integren sistemas de verificación de edad. Además, deberán mostrar advertencias que dejen claro a los usuarios que las interacciones están generadas por IA, así como integrar protocolos de detección de suicidio o autolesiones. </p>
<p>Otras medidas. Como decíamos al principio, la demanda de los padres del adolescente que discutió sus planes de suicidio con ChatGPT desató una crisis en OpenAI, que pronto anunció nuevas salvaguardas para ChatGPT como el control parental. Las apps de compañeros IA también están llevando este tema a su discurso. Character AI ya cuenta con herramientas parentales y Replika aseguró a TechCrunch que dedican muchos recursos para filtrar contenido y dirigir a usuarios en situaciones complicadas a líneas de ayuda.</p>
<p>En Xataka | Los humanos nos estamos enamorando de IAs y no son casos aislados: ya se cuentan por miles</p>
<p> &#8211; La noticia</p>
<p> &#8220;La seguridad de nuestros hijos no está en venta&#8221;: ya está aquí la primera ley que regula los &#8216;amigos IA&#8217; </p>
<p> fue publicada originalmente en</p>
<p> Xataka </p>
<p> por<br />
 Amparo Babiloni</p>
<p> . </p>
<p>​ </p>
<p>​ </p>