Ciencia y Tecnología

La IA de Meta debía ayudar a detectar abuso infantil: agentes de EEUU denuncian que está fallando en un punto clave

Published

on

<p>&NewLine; <img src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;865fb1&sol;meta-portada&sol;1024&lowbar;2000&period;jpeg" alt&equals;"La IA de Meta debía ayudar a detectar abuso infantil&colon; agentes de EEUU denuncian que está fallando en un punto clave ">&NewLine; <&sol;p>&NewLine;<p>Las redes sociales llevan años recurriendo a sistemas automatizados para intentar detectar algunos de los delitos más graves que circulan por internet&period; Entre ellos se encuentra la explotación sexual infantil&comma; un fenómeno que obliga a plataformas&comma; reguladores y fuerzas de seguridad a vigilar enormes volúmenes de contenido cada día&period; La promesa de estas herramientas es clara&colon; identificar posibles casos antes y facilitar el trabajo de los agentes&period; Sin embargo&comma; algunos equipos especializados en Estados Unidos sostienen que el volumen de avisos que reciben desde las plataformas de Meta se ha disparado y que una parte importante de ellos no aporta información útil para actuar&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 1 --><&sol;p>&NewLine;<p><strong>Choque entre escala y utilidad<&sol;strong>&period; En un proceso judicial que se está celebrando en Nuevo México&comma; la fiscalía sostiene que Meta no reveló adecuadamente lo que sabía sobre los riesgos que afrontan los menores en sus plataformas y que habría incumplido las leyes estatales de protección al consumidor&period; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;apnews&period;com&sol;article&sol;meta-new-mexico-child-exploitation-trial-19195fc680dba782fb971d68082e11a4">Según Associated Press<&sol;a>&comma; la acusación también argumenta que la compañía presentó la seguridad de sus servicios de una forma que no se correspondía con los riesgos que afrontaban niños y adolescentes&period; El caso forma parte de una ola más amplia de demandas presentadas en Estados Unidos contra grandes compañías tecnológicas por los efectos que sus servicios pueden tener sobre menores&period;<&sol;p>&NewLine;<div class&equals;"article-asset-video article-asset-normal">&NewLine;<div class&equals;"asset-content">&NewLine;<div class&equals;"base-asset-video">&NewLine;<div class&equals;"js-dailymotion"><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>Meta rechaza esa interpretación<&sol;strong>&period; En su intervención ante el jurado&comma; el abogado de la compañía Kevin Huff defendió que la empresa sí ha informado de los riesgos asociados al uso de sus servicios y que ha introducido distintas herramientas para detectar y eliminar contenido dañino&period; Según Associated Press&comma; Huff insistió en que el punto central del caso no es demostrar que existe contenido problemático en redes sociales&comma; sino determinar si la empresa ocultó información relevante a los usuarios&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 2 --><&sol;p>&NewLine;<p><strong>Los investigadores en primera línea<&sol;strong>&period; Quienes han puesto cifras y ejemplos concretos a ese problema son agentes que trabajan directamente en investigaciones de explotación infantil en internet&period; En Estados Unidos&comma; esas tareas recaen en gran medida en la red de unidades conocida como <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;icactaskforce&period;org&sol;">Internet Crimes Against Children<&sol;a> &lpar;ICAC&rpar;&comma; un programa que agrupa a fuerzas policiales de distintos niveles y que está coordinado con el Departamento de Justicia para investigar y perseguir delitos cometidos contra menores en entornos digitales&period; Sus agentes reciben avisos sobre posibles casos procedentes de distintas fuentes&comma; entre ellas las propias plataformas tecnológicas&period;<&sol;p>&NewLine;<p>Durante el juicio&comma; algunos de esos agentes han descrito cómo están viviendo el aumento de avisos procedentes de las plataformas de Meta&period; Benjamin Zwiebel&comma; agente especial del ICAC en Nuevo México&comma; explicó ante el tribunal que muchos de los avisos que reciben resultan poco útiles para avanzar en una investigación&period; &OpenCurlyDoubleQuote;Recibimos muchos consejos de Meta que son simplemente basura”&comma; declaró&comma; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;theguardian&period;com&sol;technology&sol;2026&sol;feb&sol;25&sol;meta-ai-junk-child-abuse-tips-doj">según recoge The Guardian<&sol;a>&period; Sus palabras reflejan una preocupación más amplia dentro de estas unidades&colon; el volumen de alertas se ha disparado&comma; pero no todas contienen la información necesaria para identificar a un sospechoso o iniciar una actuación policial&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 3 --><&sol;p>&NewLine;<p><strong>Mala calidad<&sol;strong>&period; En algunos casos&comma; los informes enviados desde las plataformas incluyen datos que no describen una conducta delictiva&period; En otros&comma; sí apuntan a un posible delito&comma; pero llegan sin elementos esenciales para continuar la investigación&comma; como imágenes&comma; vídeos o fragmentos de conversaciones que permitan identificar a los responsables&period; Sin ese material&comma; los agentes tienen pocas herramientas para avanzar en el caso o solicitar nuevas diligencias&period; Algunos agentes también han señalado que una parte de estos avisos llega con información incompleta o parcialmente eliminada&period;<&sol;p>&NewLine;<div class&equals;"article-asset article-asset-normal article-asset-center">&NewLine;<div class&equals;"desvio-container">&NewLine;<div class&equals;"desvio">&NewLine;<div class&equals;"desvio-figure js-desvio-figure">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;aplicaciones&sol;subir-dni-para-entrar-a-app-algo-que-sistema-verificacion-batalla-internet-futuro" class&equals;"pivot-outboundlink" data-vars-post-title&equals;"¿Es hora de acabar con el anonimato&quest; Los argumentos a favor y en contra del pilar sobre el que se ha construido internet"><br &sol;>&NewLine; <img alt&equals;"¿Es hora de acabar con el anonimato&quest; Los argumentos a favor y en contra del pilar sobre el que se ha construido internet" width&equals;"375" height&equals;"142" src&equals;"https&colon;&sol;&sol;i&period;blogs&period;es&sol;edb806&sol;privacidad&sol;375&lowbar;142&period;jpeg"><br &sol;>&NewLine; <&sol;a>&NewLine; <&sol;div>&NewLine;<div class&equals;"desvio-summary">&NewLine;<div class&equals;"desvio-taxonomy js-desvio-taxonomy">&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;aplicaciones&sol;subir-dni-para-entrar-a-app-algo-que-sistema-verificacion-batalla-internet-futuro" class&equals;"desvio-taxonomy-anchor pivot-outboundlink" data-vars-post-title&equals;"¿Es hora de acabar con el anonimato&quest; Los argumentos a favor y en contra del pilar sobre el que se ha construido internet">En Xataka<&sol;a>&NewLine; <&sol;div>&NewLine;<p> <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;aplicaciones&sol;subir-dni-para-entrar-a-app-algo-que-sistema-verificacion-batalla-internet-futuro" class&equals;"desvio-title js-desvio-title pivot-outboundlink" data-vars-post-title&equals;"¿Es hora de acabar con el anonimato&quest; Los argumentos a favor y en contra del pilar sobre el que se ha construido internet">¿Es hora de acabar con el anonimato&quest; Los argumentos a favor y en contra del pilar sobre el que se ha construido internet<&sol;a>&NewLine; <&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;p><&sol;div>&NewLine;<&sol;div>&NewLine;<p><strong>La maquinaria del reporte masivo<&sol;strong>&period; Detrás de ese aumento de avisos hay varios factores que ayudan a entender por qué el volumen de informes enviados a las autoridades se ha disparado&period; En Estados Unidos&comma; las empresas tecnológicas están obligadas por ley a comunicar cualquier material de abuso sexual infantil que detecten en sus servicios al <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;www&period;missingkids&period;org&sol;home">National Center for Missing &amp&semi; Exploited Children<&sol;a> &lpar;NCMEC&rpar;&comma; una organización que actúa como centro nacional de recepción de estos avisos y los distribuye posteriormente entre las fuerzas policiales correspondientes&period; Agentes citados por The Guardian apuntan también a cambios legales recientes&comma; como el Report Act&comma; que entró en vigor en noviembre de 2024&comma; como un posible factor que habría incrementado el número de avisos enviados para evitar incumplimientos&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 4 --><&sol;p>&NewLine;<p><strong>Meta dice que está haciendo lo contrario<&sol;strong>&period; La compañía rechaza la idea de que sus sistemas estén dificultando el trabajo de las autoridades y sostiene que&comma; por el contrario&comma; lleva años colaborando con las fuerzas de seguridad para detectar y perseguir este tipo de delitos&period; Un portavoz de Meta afirmó que el Departamento de Justicia de Estados Unidos ha reconocido en varias ocasiones la rapidez con la que la empresa responde a las solicitudes de las autoridades y que el NCMEC ha valorado positivamente su sistema de notificación de avisos&period;<&sol;p>&NewLine;<p>Según la compañía&comma; en 2024 recibió más de 9&period;000 solicitudes de emergencia por parte de autoridades estadounidenses y las resolvió en un tiempo medio de 67 minutos&comma; un proceso que&comma; asegura&comma; se acelera aún más cuando se trata de casos relacionados con la seguridad infantil o el riesgo de suicidio&period; Meta también señala que comunica al NCMEC cualquier material que pueda estar vinculado con explotación sexual infantil y que trabaja con esa organización para ayudar a priorizar los avisos&comma; entre otras cosas etiquetando aquellos que considera más urgentes&period;<&sol;p>&NewLine;<p><&excl;-- BREAK 5 --><&sol;p>&NewLine;<p><strong>Un problema real<&sol;strong>&period; Más allá de lo que determine el jurado en Nuevo México&comma; el caso refleja una tensión que va más allá de una sola empresa o de un solo estado&period; Las plataformas digitales operan a escala global y recurren a sistemas automatizados para detectar contenidos ilícitos en volúmenes que serían imposibles de revisar manualmente&period; Sin embargo&comma; la experiencia que describen algunos agentes muestra que aumentar la cantidad de avisos no siempre se traduce en investigaciones más eficaces&period;<&sol;p>&NewLine;<p>Imágenes &vert; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;unsplash&period;com&sol;es&sol;fotos&sol;un-cuadrado-blanco-con-un-logotipo-azul-WfcHl9YfTyQ">Dima Solomin<&sol;a> &vert; <a rel&equals;"noopener&comma; noreferrer" href&equals;"https&colon;&sol;&sol;unsplash&period;com&sol;es&sol;fotos&sol;persona-sosteniendo-un-telefono-negro-FPt10LXK0cg">ROBIN WORRALL<&sol;a><&sol;p>&NewLine;<p>En Xataka &vert; <a class&equals;"text-outboundlink" href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;empresas-y-economia&sol;anthropic-ha-abandonado-su-principio-importante-no-pausara-modelos-peligrosos-competencia-saca-antes" data-vars-post-title&equals;"Dario Amodei fundó Anthropic porque OpenAI no se tomaba en serio los riesgos de la IA&period; Ahora va a ceder a esos riesgos" data-vars-post-url&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;empresas-y-economia&sol;anthropic-ha-abandonado-su-principio-importante-no-pausara-modelos-peligrosos-competencia-saca-antes">Dario Amodei fundó Anthropic porque OpenAI no se tomaba en serio los riesgos de la IA&period; Ahora va a ceder a esos riesgos<&sol;a><&sol;p>&NewLine;<p> &&num;8211&semi; <br &sol;> La noticia<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;robotica-e-ia&sol;ia-meta-debia-ayudar-a-detectar-abuso-infantil-agentes-eeuu-denuncian-que-esta-fallando-punto-clave&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;27&lowbar;Feb&lowbar;2026"><br &sol;>&NewLine; <em> La IA de Meta debía ayudar a detectar abuso infantil&colon; agentes de EEUU denuncian que está fallando en un punto clave <&sol;em><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; fue publicada originalmente en<br &sol;>&NewLine; <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;27&lowbar;Feb&lowbar;2026"><br &sol;>&NewLine; <strong> Xataka <&sol;strong><br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; por <a href&equals;"https&colon;&sol;&sol;www&period;xataka&period;com&sol;autor&sol;javier-marquez&quest;utm&lowbar;source&equals;feedburner&amp&semi;utm&lowbar;medium&equals;feed&amp&semi;utm&lowbar;campaign&equals;27&lowbar;Feb&lowbar;2026"><br &sol;>&NewLine; Javier Marquez<br &sol;>&NewLine; <&sol;a><br &sol;>&NewLine; &period; <&sol;p>&NewLine;<p>&ZeroWidthSpace;Las redes sociales llevan años recurriendo a sistemas automatizados para intentar detectar algunos de los delitos más graves que circulan por internet&period; Entre ellos se encuentra la explotación sexual infantil&comma; un fenómeno que obliga a plataformas&comma; reguladores y fuerzas de seguridad a vigilar enormes volúmenes de contenido cada día&period; La promesa de estas herramientas es clara&colon; identificar posibles casos antes y facilitar el trabajo de los agentes&period; Sin embargo&comma; algunos equipos especializados en Estados Unidos sostienen que el volumen de avisos que reciben desde las plataformas de Meta se ha disparado y que una parte importante de ellos no aporta información útil para actuar&period;<br &sol;>&NewLine;Choque entre escala y utilidad&period; En un proceso judicial que se está celebrando en Nuevo México&comma; la fiscalía sostiene que Meta no reveló adecuadamente lo que sabía sobre los riesgos que afrontan los menores en sus plataformas y que habría incumplido las leyes estatales de protección al consumidor&period; Según Associated Press&comma; la acusación también argumenta que la compañía presentó la seguridad de sus servicios de una forma que no se correspondía con los riesgos que afrontaban niños y adolescentes&period; El caso forma parte de una ola más amplia de demandas presentadas en Estados Unidos contra grandes compañías tecnológicas por los efectos que sus servicios pueden tener sobre menores&period;<&sol;p>&NewLine;<p>Meta rechaza esa interpretación&period; En su intervención ante el jurado&comma; el abogado de la compañía Kevin Huff defendió que la empresa sí ha informado de los riesgos asociados al uso de sus servicios y que ha introducido distintas herramientas para detectar y eliminar contenido dañino&period; Según Associated Press&comma; Huff insistió en que el punto central del caso no es demostrar que existe contenido problemático en redes sociales&comma; sino determinar si la empresa ocultó información relevante a los usuarios&period;<br &sol;>&NewLine;Los investigadores en primera línea&period; Quienes han puesto cifras y ejemplos concretos a ese problema son agentes que trabajan directamente en investigaciones de explotación infantil en internet&period; En Estados Unidos&comma; esas tareas recaen en gran medida en la red de unidades conocida como Internet Crimes Against Children &lpar;ICAC&rpar;&comma; un programa que agrupa a fuerzas policiales de distintos niveles y que está coordinado con el Departamento de Justicia para investigar y perseguir delitos cometidos contra menores en entornos digitales&period; Sus agentes reciben avisos sobre posibles casos procedentes de distintas fuentes&comma; entre ellas las propias plataformas tecnológicas&period;<br &sol;>&NewLine;Durante el juicio&comma; algunos de esos agentes han descrito cómo están viviendo el aumento de avisos procedentes de las plataformas de Meta&period; Benjamin Zwiebel&comma; agente especial del ICAC en Nuevo México&comma; explicó ante el tribunal que muchos de los avisos que reciben resultan poco útiles para avanzar en una investigación&period; &OpenCurlyDoubleQuote;Recibimos muchos consejos de Meta que son simplemente basura”&comma; declaró&comma; según recoge The Guardian&period; Sus palabras reflejan una preocupación más amplia dentro de estas unidades&colon; el volumen de alertas se ha disparado&comma; pero no todas contienen la información necesaria para identificar a un sospechoso o iniciar una actuación policial&period;<br &sol;>&NewLine;Mala calidad&period; En algunos casos&comma; los informes enviados desde las plataformas incluyen datos que no describen una conducta delictiva&period; En otros&comma; sí apuntan a un posible delito&comma; pero llegan sin elementos esenciales para continuar la investigación&comma; como imágenes&comma; vídeos o fragmentos de conversaciones que permitan identificar a los responsables&period; Sin ese material&comma; los agentes tienen pocas herramientas para avanzar en el caso o solicitar nuevas diligencias&period; Algunos agentes también han señalado que una parte de estos avisos llega con información incompleta o parcialmente eliminada&period;<&sol;p>&NewLine;<p> En Xataka<&sol;p>&NewLine;<p> ¿Es hora de acabar con el anonimato&quest; Los argumentos a favor y en contra del pilar sobre el que se ha construido internet<&sol;p>&NewLine;<p>La maquinaria del reporte masivo&period; Detrás de ese aumento de avisos hay varios factores que ayudan a entender por qué el volumen de informes enviados a las autoridades se ha disparado&period; En Estados Unidos&comma; las empresas tecnológicas están obligadas por ley a comunicar cualquier material de abuso sexual infantil que detecten en sus servicios al National Center for Missing &amp&semi; Exploited Children &lpar;NCMEC&rpar;&comma; una organización que actúa como centro nacional de recepción de estos avisos y los distribuye posteriormente entre las fuerzas policiales correspondientes&period; Agentes citados por The Guardian apuntan también a cambios legales recientes&comma; como el Report Act&comma; que entró en vigor en noviembre de 2024&comma; como un posible factor que habría incrementado el número de avisos enviados para evitar incumplimientos&period;<br &sol;>&NewLine;Meta dice que está haciendo lo contrario&period; La compañía rechaza la idea de que sus sistemas estén dificultando el trabajo de las autoridades y sostiene que&comma; por el contrario&comma; lleva años colaborando con las fuerzas de seguridad para detectar y perseguir este tipo de delitos&period; Un portavoz de Meta afirmó que el Departamento de Justicia de Estados Unidos ha reconocido en varias ocasiones la rapidez con la que la empresa responde a las solicitudes de las autoridades y que el NCMEC ha valorado positivamente su sistema de notificación de avisos&period;<br &sol;>&NewLine;Según la compañía&comma; en 2024 recibió más de 9&period;000 solicitudes de emergencia por parte de autoridades estadounidenses y las resolvió en un tiempo medio de 67 minutos&comma; un proceso que&comma; asegura&comma; se acelera aún más cuando se trata de casos relacionados con la seguridad infantil o el riesgo de suicidio&period; Meta también señala que comunica al NCMEC cualquier material que pueda estar vinculado con explotación sexual infantil y que trabaja con esa organización para ayudar a priorizar los avisos&comma; entre otras cosas etiquetando aquellos que considera más urgentes&period;<br &sol;>&NewLine;Un problema real&period; Más allá de lo que determine el jurado en Nuevo México&comma; el caso refleja una tensión que va más allá de una sola empresa o de un solo estado&period; Las plataformas digitales operan a escala global y recurren a sistemas automatizados para detectar contenidos ilícitos en volúmenes que serían imposibles de revisar manualmente&period; Sin embargo&comma; la experiencia que describen algunos agentes muestra que aumentar la cantidad de avisos no siempre se traduce en investigaciones más eficaces&period;<br &sol;>&NewLine;Imágenes &vert; Dima Solomin &vert; ROBIN WORRALL<br &sol;>&NewLine;En Xataka &vert; Dario Amodei fundó Anthropic porque OpenAI no se tomaba en serio los riesgos de la IA&period; Ahora va a ceder a esos riesgos<&sol;p>&NewLine;<p> &&num;8211&semi; La noticia<&sol;p>&NewLine;<p> La IA de Meta debía ayudar a detectar abuso infantil&colon; agentes de EEUU denuncian que está fallando en un punto clave <&sol;p>&NewLine;<p> fue publicada originalmente en<&sol;p>&NewLine;<p> Xataka <&sol;p>&NewLine;<p> por<br &sol;>&NewLine; Javier Marquez<&sol;p>&NewLine;<p> &period;   <&sol;p>&NewLine;<p>&ZeroWidthSpace;   <&sol;p>&NewLine;<p>&ZeroWidthSpace; <&sol;p>&NewLine;

Leave a Reply

Your email address will not be published. Required fields are marked *

Noticias Importantes

Copyright © 2017 ERM DIGITAL. powered by ERM.