Seleccione el país y el idioma

TikTok está siendo investigado por la difusión de Material de Abuso Sexual Infantil

tiktok esta siendo investigado por la difusion de material de abuso sexual infantil
Solen Feyissa/Unsplash

El Departamento de Seguridad Nacional está investigando la difusión de material de abusos sexuales a menores en TikTok, según informaron fuentes al Financial Times.

La plataforma está siendo investigada por permitir que los vídeos de abuso sexual infantil se suban a la red pública, mientras que los malos actores de TikTok también están utilizando una función de privacidad para compartir el material de abuso sexual infantil con otros.

La investigación del DHS se produce después de que un investigador de la privacidad de los niños informara a TikTok de que se estaba publicando CSAM en la plataforma. El Financial Times descubrió que los moderadores de TikTok tenían dificultades para controlar el número de vídeos que se subían públicamente. Los investigadores también descubrieron que los abusadores han utilizado la plataforma para el grooming, que consiste en hacerse amigo de un niño en línea para luego abusar de él. Una fuente dijo al FT que el Departamento de Justicia de EE.UU. también está investigando cómo los depredadores están utilizando indebidamente una función de TikTok llamada "Only Me".

El Departamento de Justicia puso en marcha su investigación después de que los grupos de seguridad infantil y las fuerzas del orden descubrieran que el contenido CSAM se estaba pasando a través de cuentas privadas. Los usuarios incluían palabras clave en sus vídeos públicos, nombres de usuario y biografías, y el contenido ilegal se subía a través del feed privado "Only Me", que muestra los vídeos sólo para aquellos que están conectados. Los depredadores compartían sus contraseñas con las víctimas y con otros depredadores para acceder a los vídeos "Only Me".

TikTok no devolvió inmediatamente la solicitud de comentarios de Protocolo. Pero la plataforma dijo en un comunicado que ha trabajado con las fuerzas de seguridad en el tema y ha eliminado las cuentas y el contenido que incluye CSAM.

"TikTok tiene tolerancia cero para el material de abuso sexual infantil", dijo la compañía. "Cuando encontramos cualquier intento de publicar, obtener o distribuir CSAM, eliminamos el contenido, prohibimos las cuentas y los dispositivos, informamos inmediatamente a [El Centro Nacional para Niños Desaparecidos y Explotados], y nos involucramos con la aplicación de la ley según sea necesario".

Las plataformas y los legisladores han tomado sus propias medidas para abordar el CSAM. Apple intentó poner en marcha nuevas funciones de protección de menores, pero la empresa retrasó esos planes después de que los defensores de la privacidad argumentaran que harían más daño que bien. Hace un par de meses, los legisladores volvieron a presentar la Ley Earn It, que eliminaría la inmunidad de la Sección 230 de las empresas tecnológicas en relación con el CSAM a nivel estatal y federal. Al mismo tiempo, un informe reciente descubrió que, a pesar del plan de las tecnológicas para luchar contra el CSAM, el problema es cada vez mayor y más difícil de manejar.

TikTok dijo a Protocolo que no está al tanto de las investigaciones del gobierno que el FT informó, pero la plataforma tiene una política de tolerancia cero sobre CSAM. "Al leer esta historia, nos pusimos en contacto con HSI para iniciar un diálogo y discutir las oportunidades de trabajar juntos en nuestra misión compartida de poner fin a la explotación sexual infantil en línea - al igual que nos comprometemos regularmente con las agencias de aplicación de la ley en todo el país sobre este tema crucial", dijo un portavoz.

Protocolo se puso en contacto con el DHS para obtener más detalles sobre la investigación.

Escrito por Sarah Roach a través de Protocol Abril 19th 2022

Stop Child Abuse

Hay muchas maneras de participar y marcar la diferencia para prevenir el abuso infantil. Pasa a la acción y elige lo que más te convenga.

Publish modules to the "offcanvs" position.