Tecnología

Agentes estadounidenses lo critican por fallar en un aspecto crucial – Desde dentro

Las redes sociales llevan años utilizando sistemas automatizados para descubrir algunos de los delitos más graves que circulan por

Agentes estadounidenses lo critican por fallar en un aspecto crucial

 – Desde dentro

Las redes sociales llevan años utilizando sistemas automatizados para descubrir algunos de los delitos más graves que circulan por Internet. Esto incluye la explotación sexual de niños, un fenómeno que obliga a las plataformas, reguladores y fuerzas de seguridad a monitorear diariamente enormes cantidades de contenido. La promesa de estas herramientas es clara: identificar casos potenciales antes y facilitar el trabajo de los agentes. Sin embargo, algunos equipos especializados en Estados Unidos afirman que la cantidad de comunicaciones que reciben de las metaplataformas se ha disparado y que una parte importante de ellas no aporta información útil para actuar.

Conflicto entre escala y utilidad. En una demanda en curso en Nuevo México, los fiscales alegan que Meta no reveló adecuadamente su conocimiento de los riesgos que enfrentan los menores en sus plataformas y violó las leyes estatales de protección al consumidor. Según la prensa asociadaLa acusación también afirma que la empresa presentó la seguridad de sus servicios de una manera que no reflejaba los riesgos para niños y jóvenes. El caso es parte de una ola más amplia de demandas presentadas en Estados Unidos contra importantes empresas de tecnología por el impacto potencial de sus servicios en los menores.

Meta rechaza esta interpretación.. En su intervención ante el jurado, el abogado de la compañía, Kevin Huff, defendió que la compañía había informado de los riesgos asociados al uso de sus servicios e implementado diversas herramientas para detectar y eliminar contenidos dañinos. Según Associated Press, Huff insistió en que el foco del caso no era demostrar que existía contenido problemático en las redes sociales, sino determinar si la empresa había ocultado información relevante a los usuarios.

Investigadores en primera línea. Quienes han aportado cifras y ejemplos concretos de este problema son agentes directamente implicados en las investigaciones sobre explotación infantil online. En Estados Unidos, estas tareas recaen en gran medida en la red de entidades conocidas como Delitos en Internet contra niños (ICAC), un programa que reúne a cuerpos policiales de distintos niveles y se coordina con el Ministerio de Justicia para investigar y perseguir delitos contra menores en entornos digitales. Sus agentes reciben alertas sobre posibles casos de diversas fuentes, incluidas las propias plataformas tecnológicas.

Durante el proceso, algunos de estos agentes describieron cómo están viviendo el aumento de publicidad en las metaplataformas. Benjamin Onion, agente especial del ICAC en Nuevo México, dijo al tribunal que muchas de las comunicaciones recibidas fueron de poca utilidad para avanzar en una investigación. «Recibimos muchos consejos de Meta que son simplemente basura», explicó. según El guardián. Sus palabras reflejan una preocupación más amplia dentro de estas unidades: el número de alertas se ha disparado, pero no todas contienen la información necesaria para identificar a un sospechoso o iniciar una acción policial.

Mala calidad. En algunos casos, los informes enviados por las plataformas contienen datos que no describen comportamientos delictivos. En otros casos, señalan un posible delito, pero llegan sin elementos imprescindibles para continuar la investigación, como imágenes, videos o fragmentos de conversaciones que permitan identificar a los perpetradores. Sin este material, los agentes tienen pocas herramientas para avanzar en el caso o solicitar un nuevo juicio. Algunos agentes también han descubierto que algunas de estas comunicaciones contienen información incompleta o parcialmente eliminada.

La máquina de informes masivos. Hay varios factores detrás de este aumento de denuncias que hacen comprensible por qué se ha disparado el volumen de denuncias presentadas a las autoridades. En los Estados Unidos, las empresas de tecnología están obligadas por ley a informar cualquier material de abuso sexual infantil que descubran en sus servicios. Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), una organización que actúa como agencia receptora nacional de estos avisos y luego los distribuye a las fuerzas policiales correspondientes. Los agentes citados por The Guardian también señalan cambios legislativos recientes, como la Ley de Informes, que entró en vigor en noviembre de 2024, como un posible factor que habría aumentado el número de avisos enviados para prevenir violaciones.

Meta dice que hace lo contrario.. La empresa rechaza que sus sistemas dificulten el trabajo de las autoridades y, por el contrario, subraya que lleva años trabajando con las fuerzas de seguridad para detectar y perseguir este tipo de delitos. Un portavoz de Meta dijo que el Departamento de Justicia de Estados Unidos ha reconocido repetidamente la rapidez de la empresa para responder a las solicitudes del gobierno y que el NCMEC ha evaluado positivamente su sistema de notificación de notificaciones.

La compañía dice que recibió más de 9.000 solicitudes de emergencia de las autoridades estadounidenses en 2024 y las resolvió en un tiempo promedio de 67 minutos, un proceso que, según dice, se acelera cuando se trata de casos que involucran seguridad infantil o riesgo de suicidio. Meta también señala que informa todo el material que pueda estar relacionado con la explotación sexual infantil al NCMEC y que trabaja con esa organización para ayudar a priorizar los informes, incluso marcando aquellos que considera más urgentes.

un verdadero problema. Independientemente de lo que decida el jurado de Nuevo México, el caso refleja una tensión que va más allá de una sola empresa o estado. Las plataformas digitales operan a escala global y utilizan sistemas automatizados para detectar contenidos ilegales en cantidades que no se pueden controlar manualmente. Sin embargo, las experiencias relatadas por algunos agentes muestran que aumentar el número de denuncias no siempre conduce a investigaciones más efectivas.

Imágenes | Dima Solomina | MUNDO ROBIN

En | Dario Amodei fundó Anthropic porque OpenAI no tomó en serio los riesgos de la IA. Ahora cederás ante estos riesgos.

Redacción Desde Dentro
About Author

Redacción Desde Dentro