Kies land en taal

Beleidsgroepen vragen Apple af te zien van plannen om apparaten te scannen op beeldmateriaal van Kindermisbruik

beleidsgroepen vragen apple af te zien van plannen om apparaten te scannen op beeldmateriaal van kindermisbruik
Alex Castro / The Verge

Een internationale coalitie van beleids- en burgerrechtengroepen heeft donderdag een open brief gepubliceerd waarin Apple wordt gevraagd "af te zien van zijn onlangs aangekondigde plannen om surveillancemogelijkheden in te bouwen in iPhones, iPads en andere Apple-producten."

Tot de groepen behoren de American Civil Liberties Union, de Electronic Frontier Foundation, Access Now, Privacy International en het Tor Project.

Eerder deze maand kondigde Apple aan dat het van plan is nieuwe technologie in iOS te gebruiken om mogelijk kindermisbruikmateriaal te detecteren, met als doel de verspreiding van seksueel kindermisbruikmateriaal (CSAM) online te beperken.

Apple kondigde ook een nieuwe "communicatiebeveiliging" aan, die gebruikmaakt van machine learning op het apparaat om expliciete seksuele beelden die kinderen in de Berichten-app ontvangen, te identificeren en te vervagen. Ouders van kinderen van 12 jaar en jonger kunnen een melding krijgen als het kind zo'n afbeelding bekijkt of verstuurt.

"Hoewel deze mogelijkheden bedoeld zijn om kinderen te beschermen en de verspreiding van materiaal over seksueel misbruik van kinderen tegen te gaan, vrezen we dat ze zullen worden gebruikt om beschermde meningsuiting te censureren, de privacy en veiligheid van mensen over de hele wereld te bedreigen, en rampzalige gevolgen zullen hebben voor veel kinderen", schrijven de groepen in de brief.

Op de nieuwe "Child Safety"-pagina van Apple staan meer details over de plannen, die inhouden dat het apparaat wordt gescand voordat er een back-up van een afbeelding wordt gemaakt in iCloud. Het scannen vindt pas plaats als er een back-up van een bestand in iCloud wordt gemaakt, en Apple zegt alleen gegevens over een overeenkomst te ontvangen als de cryptografische vouchers (die samen met de afbeelding naar iCloud worden geüpload) voor een account voldoen aan een drempelwaarde voor overeenkomst met bekend CSAM. Apple en andere cloud-e-mailproviders hebben hashsystemen gebruikt om via e-mail verzonden CSAM te scannen, maar het nieuwe programma zou dezelfde scans toepassen op afbeeldingen die in iCloud zijn opgeslagen, zelfs als de gebruiker ze nooit met iemand anders deelt of verstuurt.

In reactie op de bezorgdheid over mogelijk misbruik van de technologie heeft Apple laten weten het gebruik ervan te beperken tot het opsporen van CSAM "en we zullen niet ingaan op verzoeken van regeringen om dit uit te breiden", aldus het bedrijf. Veel van de kritiek op de nieuwe maatregelen was gericht op de apparaatscanfunctie, maar de burgerrechten- en privacyorganisaties zeiden dat het plan om naakt in iMessages van kinderen te vervagen kinderen in gevaar kan brengen en de end-to-end encryptie van iMessage zal doorbreken. "Als deze achterdeurtjes eenmaal zijn ingebouwd, zouden overheden Apple kunnen dwingen om de melding uit te breiden naar andere accounts en om beelden te detecteren die aanstootgevend zijn om andere redenen dan dat ze seksueel expliciet zijn", aldus de brief.

Door Kim Lyons via The Verge augustus 20th 2021

Stop Child Abuse

Er zijn veel manieren waarop u betrokken kunt raken en een verschil kunt maken om kindermishandeling te voorkomen. Onderneem actie en kies wat voor u het beste werkt.