Seleccione el país y el idioma

Grupos Políticos solicitan a Apple abandonar sus planes para escanear dispositivos en busca de Imágenes de Abuso Infantil

grupos politicos solicitan a apple abandonar sus planes para escanear dispositivos en busca de imagenes de abuso infantil
Alex Castro / The Verge

Una coalición internacional de grupos políticos y de derechos civiles publicó una carta abierta el jueves pidiendo a Apple que "abandone sus planes recientemente anunciados para desarrollar capacidades de vigilancia en iPhones, iPads y otros productos de Apple".

Los grupos incluyen la Unión Estadounidense por las Libertades Civiles, la Electronic Frontier Foundation, Access Now, Privacy International y Tor Project.

A principios de este mes, Apple anunció sus planes de utilizar nueva tecnología dentro de iOS para detectar posibles imágenes de abuso infantil con el objetivo de limitar la propagación de material de abuso sexual infantil (CSAM) en línea.

Apple también anunció una nueva función de "seguridad de la comunicación", que utilizará el aprendizaje automático en el dispositivo para identificar y difuminar imágenes sexualmente explícitas recibidas por niños en su aplicación Mensajes. Los padres de niños menores de 12 años pueden recibir una notificación si el niño ve o envía dicha imagen.

“Aunque estas capacidades están destinadas a proteger a los niños y reducir la propagación de material de abuso sexual infantil, nos preocupa que se utilicen para censurar el discurso protegido, amenazar la privacidad y la seguridad de las personas en todo el mundo y tener consecuencias desastrosas para muchos niños”, escribieron los grupos en la carta.

La nueva página "Seguridad infantil" de Apple detalla los planes, que requieren un escaneo en el dispositivo antes de que se haga una copia de seguridad de una imagen en iCloud. El escaneo no ocurre hasta que se hace una copia de seguridad de un archivo en iCloud, y Apple dice que solo recibe datos sobre una coincidencia si los comprobantes criptográficos (cargados en iCloud junto con la imagen) de una cuenta cumplen con un umbral de coincidencia CSAM conocido. Apple y otros proveedores de correo electrónico en la nube han utilizado sistemas hash para buscar CSAM enviado por correo electrónico, pero el nuevo programa aplicaría los mismos escaneos a las imágenes almacenadas en iCloud, incluso si el usuario nunca las comparte ni las envía a nadie más.

En respuesta a las preocupaciones sobre cómo se podría usar indebidamente la tecnología, Apple continuó diciendo que limitaría su uso a la detección de CSAM "y no accederemos a la solicitud de ningún gobierno para expandirla", dijo la compañía. Gran parte del rechazo a las nuevas medidas se ha centrado en la función de escaneo del dispositivo, pero los grupos de derechos civiles y privacidad dijeron que el plan para difuminar la desnudez en los iMessages de los niños podría poner a los niños en peligro y romperá el cifrado de extremo a extremo de iMessage. “Una vez que se incorpore esta función, los gobiernos podrían obligar a Apple a extender la notificación a otras cuentas ya detectar imágenes que son objetables por razones que no sean sexualmente explícitas”, dice la carta.

Escrito por Kim Lyons a través de The Verge Agosto 20th 2021

Stop Child Abuse

Hay muchas maneras de participar y marcar la diferencia para prevenir el abuso infantil. Pasa a la acción y elige lo que más te convenga.