domingo, mayo 5, 2024

Contenido generado por IA complica lucha contra abuso sexual infantil

Según datos del informe, en un solo día a principios de este año, la CyberTipline recibió un récord de un millón de informes de CSAM, saturando temporalmente la capacidad de respuesta de los investigadores.

REDACCIÓN.– Investigadores de la Universidad de Stanford, en un informealertan sobre la creciente amenaza de los materiales de abuso sexual infantil generados por inteligencia artificial (IA), que están siendo limitadas por tecnologías anticuadas y leyes obsoletas.

El informe destaca que, en el último año, los avances en tecnologías de IA han simplificado considerablemente la creación de imágenes explícitas de menores, elevando exponencialmente el volumen de material de abuso sexual infantil (CSAM) en circulación.

Te podría interesar: Los niños de la inteligencia artificial: cómo la tecnología define a la generación Alfa

Según datos del informe, en un solo día a principios de este año, la CyberTipline recibió un récord de un millón de informes de CSAM, saturando temporalmente la capacidad de respuesta de los investigadores.

La CyberTipline, opera como el principal depósito federal para todos los informes sobre CSAM en línea, utilizada por las fuerzas de seguridad en la investigación de estos crímenes.

Ante la creciente indignación pública sobre la proliferación de imágenes de abuso sexual de niños en línea, recientemente se intensificó el escrutinio sobre la responsabilidad de grandes plataformas tecnológicas en la protección de los menores.

El informe de Stanford también subraya la necesidad de que el Centro Nacional para Niños Desaparecidos y Explotados adapte su línea de consejos para que las fuerzas del orden puedan determinar qué informes implican contenido generado por IA.

En el foco

Patrocinado por:

Top 5 esta semana

Explora más