Ciencia y Tecnología

IA fomenta el surgimiento de hackers bisoños, dice informe de Anthropic

Published

on

<p>Modelos de lenguaje facilitan que programadores inexpertos se afilien al llamado &&num;8220&semi;vibe hacking&&num;8221&semi; con el que estos&comma; pese a su novatez&comma; provocan grandes daños&period;<&sol;p>&NewLine;<p>&ZeroWidthSpace;Modelos de lenguaje facilitan que programadores inexpertos se afilien al llamado &&num;8220&semi;vibe hacking&&num;8221&semi; con el que estos&comma; pese a su novatez&comma; provocan grandes daños&period;  <&sol;p>&NewLine;<p>¿Está facilitando la <a class&equals;"internal-link" href&equals;"https&colon;&sol;&sol;www&period;dw&period;com&sol;es&sol;inteligencia-artificial-ia&sol;t-63771882">inteligencia artificial &lpar;IA&rpar;<&sol;a> la tarea de algunos ciberdelincuentes&quest; Los ataques informáticos&comma; antaño reservados a los especialistas&comma; son ahora accesibles a los novatos&comma; que consiguen manipular los robots conversacionales con fines espurios&period;<&sol;p>&NewLine;<p>El fenómeno se denomina &&num;8220&semi;vibe hacking&&num;8221&semi;&comma; en referencia al &&num;8220&semi;vibe coding&&num;8221&semi;&comma; la creación de código informático por parte de no iniciados&period; Y marca una &&num;8220&semi;evolución preocupante de la cibercriminalidad asistida por la IA&&num;8221&semi;&comma; tal como alertó la empresa norteamericana <a rel&equals;"noopener follow" target&equals;"&lowbar;blank" class&equals;"external-link" href&equals;"https&colon;&sol;&sol;www&period;anthropic&period;com&sol;engineering&sol;claude-code-best-practices" title&equals;"Enlace externo — Anthropic">Anthropic<&sol;a>&period;<&sol;p>&NewLine;<p>En un informe publicado el pasado miércoles&comma; la empresa competidora de OpenAI y de su robot <a class&equals;"internal-link" href&equals;"https&colon;&sol;&sol;www&period;dw&period;com&sol;es&sol;chatgpt&sol;t-65279653">ChatGPT<&sol;a> desveló que &&num;8220&semi;un cibercriminal utilizó Claude Code para llevar a cabo una operación de extorsión de datos a gran escala&comma; con objetivos internacionales múltiples en un corto espacio de tiempo&&num;8221&semi;&period;<&sol;p>&NewLine;<p>De esta manera&comma; el robot conversacional Claude Code&comma; especializado en crear código informático&comma; fue manipulado para &&num;8220&semi;automatizar&&num;8221&semi; la recolección de datos personales y contraseñas&comma; entre otros&comma; &&num;8220&semi;afectando potencialmente a al menos 17 organizaciones en el último mes&comma; entre ellas instituciones gubernamentales&comma; de salud&comma; de emergencias y religiosas&&num;8221&semi;&comma; detalló Anthropic&period;<&sol;p>&NewLine;<p>Con esta información en mano&comma; el usuario envió pedidos de rescate de los datos obtenidos por hasta 500&period;000 dólares&period; Un proceder que Anthropic&comma; pese a las &&num;8220&semi;sofisticadas medidas de seguridad desplegadas&&num;8221&semi;&comma; no supo impedir&period;<&sol;p>&NewLine;<p>El caso de Anthropic no es aislado&comma; y resuena con las inquietudes que sacuden el sector de la ciberseguridad desde la llegada masiva&comma; a disposición de millones de usuarios&comma; de herramientas de IA generativa&period;<&sol;p>&NewLine;<p>&&num;8220&semi;Al igual que el conjunto de usuarios&comma; los ciberdelincuentes han adoptado la IA&&num;8221&semi;&comma; indica a AFP Rodrigue Le Bayon&comma; al frente del centro de alerta y reacción a ataques informáticos &lpar;CERT&rpar; de Orange Cyberdefense&period;<&sol;p>&NewLine;<p>En un informe publicado en junio&comma; OpenAI reconoció que ChatGPT había ayudado a un usuario a la hora de desarrollar un programa malicioso o &&num;8216&semi;malware&&num;8217&semi;&period;<&sol;p>&NewLine;<p>Los modelos desarrollados disponen de medidas de seguridad que&comma; supuestamente&comma; deben impedir la explotación de sus capacidades con fines delictivos&period;<&sol;p>&NewLine;<p>Sin embargo&comma; existen técnicas que &&num;8220&semi;permiten esquivar los límites de los grandes modelos de lenguaje&comma; de modo que produzcan contenido que no deberían generar&&num;8221&semi;&comma; explica a AFP el especialista Vitaly Simonovich&period;<&sol;p>&NewLine;<p>Este investigador&comma; que trabaja en la empresa israelí de ciberseguridad Cato Networks&comma; dijo en marzo haber detectado un método por el que usuarios poco experimentados pueden crear programas capaces de robar contraseñas&period;<&sol;p>&NewLine;<p>Dicha técnica&comma; que denominó &&num;8220&semi;mundo inmersivo&&num;8221&semi;&comma; consiste en describir a un chatbot un universo imaginario en el que &&num;8220&semi;la creación de programas informáticos maliciosos es un arte&&num;8221&semi;&comma; y pedirle a un robot conversacional que actúe como &&num;8220&semi;artista&&num;8221&semi; de esa realidad&period;<&sol;p>&NewLine;<p>&&num;8220&semi;Fue mi forma de poner a prueba los límites de los actuales modelos de lenguaje&&num;8221&semi;&comma; detalla Simonovich&comma; que no logró sus fines ni con Gemini &lpar;Google&rpar; ni con Claude &lpar;Anthropic&rpar;&comma; pero sí logró generar código malicioso con ChatGPT&comma; Deepseek y Copilot &lpar;Microsoft&rpar;&period;<&sol;p>&NewLine;<p>Según él&comma; &&num;8220&semi;el auge de amenazas procedentes de actores inexpertos representará un peligro creciente para las organizaciones&&num;8221&semi;&period;<&sol;p>&NewLine;<p>Rodrigue Le Bayon ve un riesgo a corto plazo de que &&num;8220&semi;aumente el número de víctimas&&num;8221&semi; de dichas estafas&comma; e incide en la necesidad acuciante de reforzar la seguridad de los modelos de IA&period;<&sol;p>&NewLine;<p>&lpar;afp&comma; Anthropic&sol;el&rpar;<&sol;p>&NewLine;<p> <&sol;p>&NewLine;<p>&ZeroWidthSpace;Deutsche Welle&colon; DW&period;COM &&num;8211&semi; Ciencia y Tecnologia<&sol;p>&NewLine;

Leave a Reply

Your email address will not be published. Required fields are marked *

Noticias Importantes

Copyright © 2017 ERM DIGITAL. powered by ERM.