Seleccione el país y el idioma

Apple anunciará un sistema para Detectar Imágenes de Abuso Infantil en las bibliotecas de fotos de los usuarios

apple anunciara un sistema para detectar imagenes de abuso infantil en las bibliotecas de fotos de los usuarios
9to5’s

Según los informes, Apple anunciará nuevas funciones de identificación con foto que utilizarán algoritmos hash para hacer coincidir el contenido de las fotos en las bibliotecas de los usuarios con materiales conocidos de abuso infantil, como la pornografía infantil.

El sistema de Apple se instalará en el dispositivo del usuario, en nombre de la privacidad, por lo que el iPhone descargaría un conjunto de huellas dactilares que representan contenido ilegal y luego compararía cada foto en el carrete de la cámara del usuario con esa lista. Presumiblemente, cualquier coincidencia se informaría para revisión humana. Apple ha dicho anteriormente que emplea técnicas de hash cuando las fotos se cargan en iCloud. Este nuevo sistema se haría del lado del cliente, en el dispositivo del usuario.

Apple aún no ha anunciado oficialmente esta nueva iniciativa y los detalles serán importantes.

En un nivel alto, este tipo de sistema es similar a las funciones de aprendizaje automático para la identificación de objetos y escenas que ya están presentes en Apple Photos. El análisis se realiza en el dispositivo y los usuarios pueden aprovechar una mejor funcionalidad de búsqueda. Sin embargo, el experto en criptografía y seguridad Matthew Green señala que las implicancias de tal implementación son complicadas. Los algoritmos de hash no son infalibles y pueden generar falsos positivos. Si Apple permite que los gobiernos controlen la base de datos de contenido de huellas dactilares, entonces tal vez podrían usar el sistema para detectar imágenes de cosas que no sean contenido infantil, sino cosas como el activismo político y reprimirlo.

Sin embargo, tenga en cuenta que todas las fotos cargadas en Fotos de iCloud para copia de seguridad y sincronización no se almacenan de todos modos encriptadas de extremo a extremo. Las fotos se almacenan de forma cifrada en las granjas de servidores de Apple, pero las claves para descifrar también son propiedad de Apple. Esto significa que los organismos encargados de hacer cumplir la ley pueden citar a Apple y ver todas las fotos subidas por un usuario. (Esto no es inusual, todos los servicios fotográficos de terceros funcionan de esta manera).

Es posible que en el futuro Apple pueda implementar sistemas similares para escanear contenido en el lado del cliente, que luego se almacenaría en un servidor de una manera encriptada de un extremo a otro. Muchos gobiernos han hecho campaña a favor de un sistema de este tipo desde aplicaciones de mensajería privada E2E como iMessage y WhatsApp, ya que les preocupa que el cambio cada vez mayor a las comunicaciones cifradas dificulte que las fuerzas del orden encuentren y procesen los casos de abuso infantil. Green especula que Apple no habría invertido en desarrollar este sistema si aplicarlo a contenido cifrado de extremo a extremo no fuera un objetivo a largo plazo.

Escrito por Benjamin Mayo a través de 9to5’s Agosto 5th 2021

Stop Child Abuse

Hay muchas maneras de participar y marcar la diferencia para prevenir el abuso infantil. Pasa a la acción y elige lo que más te convenga.