Privacy that's iPhone

Internationale organisaties doen oproep aan Apple: “Stop plannen van fotoscanfunctie”

Meer dan 90 internationale organisaties roepen Apple op om de plannen voor het scannen van foto's op kindermisbruik te stoppen.

De afgelopen weken is er een constante stroom aan kritiek op Apple’s plannen om foto’s van gebruikers te scannen op kindermisbruik. Het is onderdeel van een grotere set maatregelen van Apple om verspreiding van kindermisbruik tegen te gaan. Diverse organisaties hebben individueel al kritiek geuit, waaronder experts van de Center for Democracy & Technology. Deze zelfde organisatie heeft nu een open brief opgesteld, samen met meer dan 90 andere organisaties wereldwijd. De kern van het verhaal is dat ze hopen dat Apple afziet van haar plannen.

Open brief aan Apple: “Stop met plannen om foto’s te scannen”

In de brief ligt de focus op twee punten: het scannen van mogelijk schadelijke foto’s in iMessage en het scannen van de foto’s voor het detecteren van CSAM (Child Sexual Abuse Material). Hoewel de functies voorlopig alleen nog gepland staan voor de VS, hebben organisaties vanuit allerlei landen zich bij de open brief aangesloten. Namens Nederland heeft Global Voices zich bijgevoegd. Deze organisatie doet wereldwijd verslag over mensenrechten en burgermedia.

Bekijk ook

FAQ: Apple’s functies tegen kindermisbruik; privacygevaar of noodzakelijk kwaad?

Apple kondigde een reeks maatregelen aan om kinderen te beschermen en verspreiding van kinderporno tegen te gaan. Zo gaat Apple foto's van kindermisbruik detecteren in iCloud-foto's van gebruikers. Maar het leidt tot veel vragen. Betekent dit dat Apple jouw complete bibliotheek gaat scannen? En wat betekent het voor je privacy?

De organisaties zijn bang dat het mogelijk maken van CSAM-detectie in iCloud-foto’s een precedent schept voor andere manieren van surveillance. Volgens de open brief kan Apple onder grote druk worden gezet door landen, overheden en regelgeving om ook andere vormen van scans mogelijk te maken. Apple heeft eerder al in zijn eigen FAQ gezegd dat de functie uitsluitend en alleen bedoeld is voor het detecteren van kindermisbruik en dat aan andere verzoeken geen gehoor gegeven zal worden. Maar de organisaties in de open brief denken niet dat Apple die garantie kan geven. Apple legt de fundering voor verdere controle en censuur, zo is de beredenering.

Bovendien denken de organisaties dat de waarschuwingsfunctie in iMessage kinderen juist in gevaar brengt. Met name LGBTQ+ jongeren met ouderen die niet tolerant zijn, zouden hierbij gevaar kunnen lopen. Ouders moeten deze functie zelf inschakelen. Bovendien gaat het systeem er vanuit dat ouders en het kind een goede relatie hebben. Dat is in de praktijk niet altijd het geval, zo staat in de brief. Dat kan zorgen voor meer scheve verhoudingen en gevaren voor het kind.

CSAM matching van foto's tegen kindermisbruik.

De volledige brief van de organisaties is hier te lezen. Het is afwachten of Apple nog iets gaat doen met de kritiek op de plannen. De afgelopen weken heeft Apple geprobeerd in interviews uit te leggen hoe het systeem werkt en dat het niet misbruikt kan worden. Maar met zoveel kritiek van diverse organisaties, kan Apple bijna niet anders dan reageren en actie ondernemen.

Meer over Apple’s maatregelen

Ook onder Apple’s eigen medewerkers is kritiek op het scannen van foto’s op kindermisbruik, zo bleek eerder deze week al. Lees ook onze FAQ over CSAM-detectie en fotoscannen om meer te lezen over hoe het systeem werkt.

Bekijk ook

'Apple-medewerkers uiten kritiek op scannen van foto's bij opsporen kindermisbruik'

Apple's eigen medewerkers zouden intern flinke discussie hebben over het uitrollen van de functies voor het opsporen van kindermisbruik. Met name het scannen van foto's ligt onder een vergrootglas.

Reacties: 22 reacties

Reacties zijn gesloten voor dit artikel.