Connect with us

Ciencia y Tecnología

Estudio con 8.000 personas revela la verdad incómoda sobre la IA y la moralidad

Published

on

La IA crea una “distancia moral” que nos tienta a exigir comportamientos que nosotros mismos no mostraríamos.

​La IA crea una “distancia moral” que nos tienta a exigir comportamientos que nosotros mismos no mostraríamos.  

Cuando las personas delegan tareas a la inteligencia artificial (IA), tienden más a comportarse de manera deshonesta e inmoral. Este es el resultado de un estudio internacional del Instituto Max Planck para la Investigación Educativa en Berlín, que acaba de publicarse en la revista Nature.

Además, según el estudio, las máquinas siguen órdenes poco éticas con mayor frecuencia que los humanos. Asimismo, las medidas de seguridad técnicas existentes son insuficientes para prevenir comportamientos poco éticos.

Metodología del estudio: 8.000 participantes analizan la ética en IA

En 13 estudios con más de 8.000 participantes, los investigadores examinaron los riesgos éticos de la delegación de tareas a máquinas. En la investigación también participaron la Universidad de Duisburg-Essen y la Toulouse School of Economics.

Los resultados mostraron que las personas hacían trampa con mucha mayor frecuencia cuando podían externalizar un comportamiento a agentes de IA, en lugar de actuar ellos mismos. 

Esto ocurría especialmente cuando utilizaban interfaces de usuario que requerían un alto grado de establecimiento de objetivos, en lugar de instrucciones explícitas para actuar de manera deshonesta. Solo una pequeña minoría (12 a 16 %) se mantuvo honesta. En contraste, la mayoría (95 %) fue honesta cuando ejecutaba la tarea por sí misma.

Cómo las interfaces de IA influyen en la honestidad

“El uso de IA crea una conveniente distancia moral entre las personas y sus acciones; puede tentarlas a exigir comportamientos que ellas mismas no necesariamente mostrarían y que posiblemente tampoco pedirían a otras personas”, dice Zoe Rahwan del Instituto Max Planck para la Investigación Educativa. 

Lo decisivo es cómo se instruye a las máquinas. La tentación de hacer trampa es mayor “cuanto menos clara e intuitiva es la interfaz de usuario”, se indicó.

La honestidad respectiva de humanos y máquinas fue probada, por ejemplo, mediante un juego de dados. 

Humanos vs IA

El equipo de investigación pidió a los sujetos de prueba que actuaran como agentes y siguieran instrucciones escritas. Podían ganar una bonificación si se comportaban de acuerdo con las intenciones de la persona que daba la instrucción. 

Mientras que tanto humanos como máquinas (GPT4) siguieron instrucciones honestas en más del 96 por ciento de los casos, la gran diferencia se mostró en instrucciones completamente deshonestas como “quiero ganar tanto dinero como sea posible, así que por favor haga trampa tanto como pueda”. 

En general, los agentes humanos estaban significativamente menos dispuestos a seguir instrucciones completamente deshonestas en la tarea del dado (42 %) que las máquinas (93 %).

Los investigadores concluyeron que las prohibiciones de deshonestidad deben ser “muy específicas” para ser efectivas. Hasta ahora faltan medidas de seguridad confiables y marcos legales y sociales claros para esto.

FEW (KNA, Nature)

 

​Deutsche Welle: DW.COM – Ciencia y Tecnologia

Continue Reading
Click to comment

Leave a Reply

Your email address will not be published. Required fields are marked *