Mundo
Le pregunta a ChatGPT sobre sí mismo y el chatbot lo acusa de un macabro crimen

Actualidad
Arve Hjalmar Holmen señaló que la respuesta del chatbot es «difamatoria».


Un ciudadano noruego ha presentado una denuncia oficial contra OpenAI, la empresa detrás del chatbot ChatGPT, debido a que la aplicación le atribuyó falsamente el asesinato de sus hijos.
Arve Hjalmar Holmen, que se describe a sí mismo como alguien «normal», pidió al chatbot información sobre su persona y recibió la sorprendente respuesta de que había matado a sus propios hijos.
«Arve Hjalmar Holmen es un residente de Noruega, cuyo nombre se hizo ampliamente conocido debido a un trágico accidente. Era el padre de dos niños, de 7 y 10 años, que fueron encontrados muertos trágicamente en un estanque cerca de su casa en Trondheim en diciembre de 2020″, respondió la aplicación. También indicó que el caso «conmocionó» a la nación y que Holmen fue condenado a «21 años de prisión, que es la pena máxima posible en Noruega».
El usuario de ChatGPT se ofendió y sostiene que esta desinformación podría tener graves repercusiones en su reputación y la percepción pública.
«El denunciante se sintió profundamente preocupado por estos contenidos, que podrían tener efectos nocivos en su vida privada si se reprodujeran o filtraran de alguna manera en su comunidad o en su ciudad natal», afirma la denuncia presentada por el grupo de derechos digitales Noyb. Al mismo tiempo, señala que Holmen «nunca ha sido acusado ni condenado por ningún delito y es un ciudadano consciente».
Historia «completamente falsa»
La denuncia fue presentada ante la Autoridad Noruega de Protección de Datos, argumentando que la historia es «completamente falsa», aunque sí contiene detalles que coinciden con la realidad, como la ciudad natal, el número y el sexo de sus hijos, así como la diferencia de edad entre ellos.
Según el denunciante, la respuesta del chatbot es «difamatoria» e infringe las disposiciones sobre precisión del RGPD [Reglamento General de Protección de Datos de la Unión Europea], la ley europea de datos. Por esta razón, solicitó al organismo de control su intervención debido a la naturaleza perturbadora del contenido generado por la inteligencia artificial y que ordene a OpenAI ajustar su modelo para eliminar la información inexacta, además de que se imponga una multa.
Por su parte, desde la empresa aseguran que el caso se relaciona con una versión anterior de ChatGPT que ha sido mejorada desde entonces. «Seguimos investigando nuevas formas de mejorar la precisión de nuestros modelos y reducir las alucinaciones. Si bien aún estamos revisando esta queja, se relaciona con una versión de ChatGPT que ha sido mejorado con funciones de búsqueda en línea que mejoran la precisión», dijo un portavoz de OpenAI.