Privacy that's iPhone

Internationale organisaties doen oproep aan Apple: “Stop plannen van fotoscanfunctie”

Meer dan 90 internationale organisaties roepen Apple op om de plannen voor het scannen van foto's op kindermisbruik te stoppen.

De afgelopen weken is er een constante stroom aan kritiek op Apple’s plannen om foto’s van gebruikers te scannen op kindermisbruik. Het is onderdeel van een grotere set maatregelen van Apple om verspreiding van kindermisbruik tegen te gaan. Diverse organisaties hebben individueel al kritiek geuit, waaronder experts van de Center for Democracy & Technology. Deze zelfde organisatie heeft nu een open brief opgesteld, samen met meer dan 90 andere organisaties wereldwijd. De kern van het verhaal is dat ze hopen dat Apple afziet van haar plannen.

Open brief aan Apple: “Stop met plannen om foto’s te scannen”

In de brief ligt de focus op twee punten: het scannen van mogelijk schadelijke foto’s in iMessage en het scannen van de foto’s voor het detecteren van CSAM (Child Sexual Abuse Material). Hoewel de functies voorlopig alleen nog gepland staan voor de VS, hebben organisaties vanuit allerlei landen zich bij de open brief aangesloten. Namens Nederland heeft Global Voices zich bijgevoegd. Deze organisatie doet wereldwijd verslag over mensenrechten en burgermedia.

De organisaties zijn bang dat het mogelijk maken van CSAM-detectie in iCloud-foto’s een precedent schept voor andere manieren van surveillance. Volgens de open brief kan Apple onder grote druk worden gezet door landen, overheden en regelgeving om ook andere vormen van scans mogelijk te maken. Apple heeft eerder al in zijn eigen FAQ gezegd dat de functie uitsluitend en alleen bedoeld is voor het detecteren van kindermisbruik en dat aan andere verzoeken geen gehoor gegeven zal worden. Maar de organisaties in de open brief denken niet dat Apple die garantie kan geven. Apple legt de fundering voor verdere controle en censuur, zo is de beredenering.

Bovendien denken de organisaties dat de waarschuwingsfunctie in iMessage kinderen juist in gevaar brengt. Met name LGBTQ+ jongeren met ouderen die niet tolerant zijn, zouden hierbij gevaar kunnen lopen. Ouders moeten deze functie zelf inschakelen. Bovendien gaat het systeem er vanuit dat ouders en het kind een goede relatie hebben. Dat is in de praktijk niet altijd het geval, zo staat in de brief. Dat kan zorgen voor meer scheve verhoudingen en gevaren voor het kind.

CSAM matching van foto's tegen kindermisbruik.

De volledige brief van de organisaties is hier te lezen. Het is afwachten of Apple nog iets gaat doen met de kritiek op de plannen. De afgelopen weken heeft Apple geprobeerd in interviews uit te leggen hoe het systeem werkt en dat het niet misbruikt kan worden. Maar met zoveel kritiek van diverse organisaties, kan Apple bijna niet anders dan reageren en actie ondernemen.

Meer over Apple’s maatregelen

Ook onder Apple’s eigen medewerkers is kritiek op het scannen van foto’s op kindermisbruik, zo bleek eerder deze week al. Lees ook onze FAQ over CSAM-detectie en fotoscannen om meer te lezen over hoe het systeem werkt.

Suggestie hoe we dit artikel kunnen verbeteren? Laat het ons weten!

22 reacties

Plaats een reactie

Als je een eigen afbeelding bij je reactie wil, moet je je aanmelden bij Gravatar. Daar kun je jouw e-mailadres koppelen aan een afbeelding.

Suggestie hoe we dit artikel kunnen verbeteren?
Laat het ons weten!

Off-topic reacties worden verwijderd. Linken naar illegale bronnen is niet toegestaan. Respecteer onze algemene gedragsregels. Gebruik voor eventuele spelfouten of andere opmerkingen met betrekking tot het artikel s.v.p. onze artikelrapportage. Voor opmerkingen over ons moderatiebeleid kun je ons contactformulier gebruiken. Reacties met betrekking hierover worden als off-topic beschouwd.
Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactiegegevens worden verwerkt.