Apple Privacy-reclame

‘Apple-medewerkers uiten kritiek op scannen van foto’s bij opsporen kindermisbruik’

Apple's eigen medewerkers zouden intern flinke discussie hebben over het uitrollen van de functies voor het opsporen van kindermisbruik. Met name het scannen van foto's ligt onder een vergrootglas.

Een week na de aankondiging dat Apple kinderen beter wil beschermen en kindermisbruik wil opsporen, overheerst nog altijd de kritiek van privacyexperts én gebruikers. De kritiek gaat voornamelijk over de functie waarbij Apple hashes van foto’s van gebruikers vergelijkt met hashes van bewezen kindermisbruikfoto’s. Reuters schrijft nu dat eigen Apple-medewerkers er ook niet op gerust zijn dat het bij deze functie blijft. Ze zijn bang dat de privacy van gebruikers in het geding komt.

‘Kritiek Apple-medewerkers op scannen iCloud-foto’s’

Bronnen bij Apple zeggen tegenover Reuters dat er een intern Slack-kanaal is waar meer dan 800 berichten gedeeld zijn. Daarin wordt voornamelijk kritiek geuit op Apple’s plannen. Het is niet voor het eerst dat er intern kritiek is over bepaalde beslissingen, maar de bronnen merken op dat de discussie nu een stuk heviger is en langer duurt dan bij eerdere privacygevallen. De kritiek komt voornamelijk van medewerkers buiten het privacy en securityteam.

CSAM matching van foto's tegen kindermisbruik.

Veel Apple-medewerkers zijn er bang voor dat het systeem in de toekomst misbruikt kan worden door bepaalde overheden om ook andere zaken op te sporen dan alleen kindermisbruikfoto’s. Denk dan aan foto’s waarin kritiek geuit wordt op de overheid. Dit heeft als gevolg een strenge vorm van censuur. Hoewel Apple dit in een eigen FAQ tegenspreekt en zegt dat het systeem ontworpen is voor louter het tegengaan van de verspreiding van kinderporno, zijn de medewerkers (en ook privacyexperts) hier niet gerust op. Medewerkers zijn ook bang dat Apple zijn reputatie op het gebied van privacy over boord gooit.

In het Slack-kanaal zijn ook medewerkers die het voor Apple opnemen. Andere zeggen dat Slack niet de juiste plek is om het onderwerp te bespreken.

FAQ over scannen foto’s op kindermisbruik
De afgelopen week is er van meerdere kanten kritiek gekomen. Niet alleen privacyexperts en eigen medewerkers, maar ook andere personen van bedrijven als WhatsApp hebben kritiek geuit op de plannen van Apple. Het idee voor het bestrijden van kindermisbruik is goed, maar de vraag is of dit de beste manier is. In onze uitgebreide FAQ over CSAM-detectie en het scannen van iCloud-foto’s lees je hoe het systeem werkt en welke kritiek er is.

Suggestie hoe we dit artikel kunnen verbeteren? Laat het ons weten!

22 reacties

Plaats een reactie

Als je een eigen afbeelding bij je reactie wil, moet je je aanmelden bij Gravatar. Daar kun je jouw e-mailadres koppelen aan een afbeelding.

Suggestie hoe we dit artikel kunnen verbeteren?
Laat het ons weten!

Off-topic reacties worden verwijderd. Linken naar illegale bronnen is niet toegestaan. Respecteer onze algemene gedragsregels. Gebruik voor eventuele spelfouten of andere opmerkingen met betrekking tot het artikel s.v.p. onze artikelrapportage. Voor opmerkingen over ons moderatiebeleid kun je ons contactformulier gebruiken. Reacties met betrekking hierover worden als off-topic beschouwd.
Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactiegegevens worden verwerkt.