FAQ: Apple’s functies tegen kindermisbruik; privacygevaar of noodzakelijk kwaad?

Apple kondigde een reeks maatregelen aan om kinderen te beschermen en verspreiding van kinderporno tegen te gaan. Zo gaat Apple foto's van kindermisbruik detecteren in iCloud-foto's van gebruikers. Maar het leidt tot veel vragen. Betekent dit dat Apple jouw complete bibliotheek gaat scannen? En wat betekent het voor je privacy?
Benjamin Kuijten | iCulture.nl - · Laatst bijgewerkt:

Update 3 september 2021: Apple stelt de CSAM-maatregelen een paar maanden uit na kritiek van beveiligingsexperts en feedback van gebruikers.

Apple zet zich al jarenlang in voor de privacy van gebruikers. Dat is dan ook voor veel mensen een reden om voor de iPhone te kiezen, omdat Apple belooft nooit mee te kijken met je berichten, foto’s en je locatie niet volgt en weet waar je uithangt. De aangekondigde maatregelen voor het beschermen van kinderen lijkt daarmee in strijd te zijn. Er is dan ook veel kritiek op de maatregelen, niet alleen van gebruikers. Ook beveiligingsexperts zeggen dat Apple met deze maatregelen de deur op een kier zet voor een verregaande inbreuk op de privacy van gebruikers. Maar hoe zit het nieuwe systeem nou echt in elkaar? En wat zijn de gevaren voor jouw eigen privéfoto’s, bijvoorbeeld van je kinderen? In deze FAQ over Apple’s aankomende CSAM-detectie hopen we wat meer duidelijkheid te scheppen door de feiten aan je voor te leggen en tegelijkertijd de kritiek onder de aandacht te brengen.

  1. Wat gaat Apple precies doen?
  2. Wat doen andere bedrijven?
  3. Is dit nieuw, of gebeurde het al langer bij Apple?
  4. Treft dit alle gebruikers?
  5. Gaat Apple al mijn foto’s scannen?
  6. Waarom is dit potentieel gevaarlijk?
  7. Ziet Apple al mijn foto’s in de bibliotheek?
  8. Zijn de foto’s van mijn kinderen veilig?
  9. Is dit systeem waterdicht?
  10. Kan ik dit uitzetten?
  11. Kritiek en privacy
  12. Achterdeur
  13. Wat zijn de gevolgen voor de toekomst?
  14. Welke acties zijn er al gestart tegen Apple?
  15. Hoe reageert Apple op alle ophef?

#1 Wat gaat Apple precies doen?

Apple heeft officieel aangekondigd dat er in de Verenigde Staten meerdere maatregelen geïntroduceerd worden om kindermisbruik en verspreiding van beelden daarvan tegen te gaan. Het gaat in feite om drie verschillende maatregelen. Allereerst gaat Apple in de VS CSAM-detectie toepassen op de iCloud-fotobibliotheek van gebruikers.

CSAM staat voor Child Sexual Abuse Material.

Wat Apple in feite gaat doen, is het vergelijken van foto’s met een database van beeldmateriaal van bewezen kindermisbruik. Apple kijkt daarbij niet wat er op jouw foto’s staat (en scant dus niet op de hoeveelheid bloot op foto’s), maar voert een berekening uit op het beeldmateriaal. De uitkomst daarvan (hash) wordt vergeleken met de uitkomst van bekende kindermisbruikfoto’s, waarop dezelfde berekening is uitgevoerd. Komt de hash overeen, dan kan dit gerapporteerd worden aan de Amerikaanse autoriteiten. Ook Google werkt met deze hash-gebaseerde methode.

Andere maatregelen zijn meer veiligheid in iMessage, waarbij kinderen onder de 13 een waarschuwing krijgen als zij mogelijk een aanstootgevende foto krijgen toegestuurd. Dit kan worden uitgeschakeld. De derde maatregel is dat Siri en Spotlight aanvullende informatie geeft om ouders en kinderen te beschermen.

#2 Wat doen andere bedrijven?

Google scant al langer online bestanden op CSAM-content en hetzelfde geldt voor Twitter, Microsoft en Facebook. Het belangrijkste verschil is dat zijn online content scannen, terwijl Apple het belooft lokaal te doen. Sinds 2013 wordt al gebruik gemaakt van PhotoDNA, een door Microsoft ontwikkelde methode met hash-technologie.

#3 Is dit nieuw, of gebeurde het al langer bij Apple?

Het is goed om je te realiseren dat Apple al langer scant op CSAM-content, in ieder geval sinds 2019. In dat jaar paste Apple de privacyvoorwaarden aan om te benadrukken dat geüploade content zou worden gescand op “potentieel illegale inhoud, waaronder materiaal waarop kinderen seksueel worden geëxploiteerd”.

Apple’s hoofd privacy Jane Horvath bevestigde in 2020 nog eens dat Apple screening-technologie gebruikt om afbeeldingen met CSAM te detecteren. In dat geval wordt een account uitgeschakeld.

De maatregelen die zijn worden aangekondigd maken vooral duidelijk dat Apple deze activiteiten verder gaat opschalen en gebruikers meer bewust te maken dat er op CSAM wordt gescand. Volgens sommige experts is de huidige kritiek een storm in een glas water omdat iedereen had kunnen weten dat het al gebeurde.

Verder is het zo dat je lokale fotobibliotheek al veel langer wordt gescand, bijvoorbeeld om gezichten, dieren, landschappen en dergelijke op foto’s te herkennen. Dit gebeurt echter lokaal en wordt niet gerapporteerd aan Apple of aan instanties.

#4 Treft dit alle gebruikers?

Allereerst is het goed om te weten dat alle drie maatregelen aanvankelijk ingevoerd worden in de VS. Apple gaat deze maatregelen dus (nog) niet invoeren bij Europese gebruikers. Dat neemt echter niet weg dat Apple dat op den duur wel kan doen. Apple heeft in een verklaring uitgelegd dat het bedrijf verdere uitrol per land zal overwegen, nadat de juridische haalbaarheid is onderzocht. Een tijdlijn werd niet gegeven.

De maatregelen zijn ook niet meteen van kracht, maar zijn onderdeel van iOS 15, iPadOS 15 en macOS Monterey. Deze updates verschijnen in het najaar van 2021.

Voor de CSAM-detectie geldt dat het alleen gebeurt als je gebruikmaakt van iCloud-foto’s. Bewaar je de foto’s alleen offline op je toestel, dus zonder synchronisatie met de cloud, dan zal Apple de detectie niet toepassen.

CSAM matching van foto's tegen kindermisbruik.

#5 Gaat Apple al mijn foto’s scannen?

De CSAM-detectie werkt lokaal op je toestel zelf. Apple bekijkt of de hash van een foto overeenkomt met de hash van een bekende CSAM-afbeelding. Het matchen van hashes gebeurt allemaal op het toestel zelf, dus niet in de cloud. Apple stuurt dan ook geen foto’s op naar een server.

De iPhone analyseert dus niet de inhoud van foto’s die op je toestel staan en kijkt niet of er blote lichaamsdelen, huidkleurige vlakken of gezichten van minderjarigen op staan, maar onderwerpt alle foto’s aan een berekening, waarvan de uitkomst wordt vergeleken. De term ‘scannen’ is daarom wat misleidend. Hoe het technisch werkt lees je in deze uitleg. Ook vind je hier een goede uitleg hoe Apple’s systeem van Private Set Intersection werkt.

Werking van Apple's CSAM detectie voor foto's.

Bij het analyseren van foto’s die kinderen via iMessage delen wordt overigens wel de inhoud gescand op mogelijk bloot. Dit staat los van het detecteren van CSAM-content en kan worden uitgeschakeld.

#6 Waarom is dit potentieel gevaarlijk?

De meerderheid van de gebruikers zal maatregelen tegen kinderporno alleen maar toejuichen. Maar onder het mom ‘kinderbescherming’ wordt een systeem ingevoerd, dat ook op andere manieren misbruikt kan worden. Als Apple op CSAM-content kan scannen, zet dit de deur open voor het detecteren van allerlei andere content.

Werkt het systeem goed, dan is het een kleine stap om ook andere foto’s te detecteren en te vergelijken met een database van foto’s van bekende politieke activisten, foto’s van protestbijeenkomsten, actieposters en dergelijke. Gebruikers vertrouwen erop dat Apple ethische keuzes maakt en hier niet aan meewerkt, maar zou kunnen buigen onder druk van ‘foute’ regimes. Organisaties zoals EFF zijn dan ook tegenstander en spreken van een “achterdeurtje naar je privéleven”.

#7 Ziet Apple al mijn foto’s in de bibliotheek?

Omdat het matchen met de CSAM-database alleen op het toestel zelf gebeurt, ziet Apple niet welke foto’s jij in je bibliotheek hebt staan. Apple gebruikt bovendien een cryptografische technologie. Deze bepaalt of er inderdaad sprake is van een match, maar kijkt niet wat er op de foto’s te zien is. Ook Apple kan de foto niet zien, zelfs niet als er een match gevonden is. Bij één match zal het systeem niet meteen alarm slaan.

Pas na een bepaald aantal matches met CSAM-content zal Apple in actie komen en de resultaten delen met autoriteiten, als er inderdaad sprake is van een groot aantal positieve matches.

#8 Zijn de foto’s van mijn kinderen veilig?

Ja. Er zijn veel gebruikers die nu bang zijn dat onschuldige foto’s van hun kinderen nu door Apple bekeken worden of aangemerkt worden als kinderporno. Omdat het systeem hashes van bewezen kindermisbruikfoto’s vergelijkt, is de kans klein dat een onschuldige foto van jouw kind in bad precies overeen komt met bekende kinderporno. Dit kan alleen gebeuren als je de foto zelf hebt gepubliceerd op Facebook en dergelijke, waarna de foto in kringen van kindermisbruik verder is verspreid. Foto’s waar je zorgvuldig mee omgaat zullen niet in de database van bewezen CSAM-foto’s.

Apple zegt dat er bij één op een biljoen positieve matches per jaar, sprake blijkt te zijn van een fout positief resultaat. Hoewel Apple er alles aan zal doen om dit te voorkomen, kan het in theorie natuurlijk wel gebeuren dat een foto onterecht in de database terecht komt.

iCloud Fotobibliotheek

#9 Is dit systeem waterdicht?

Nee. Zoals de foutmarge wel laat zien, is dit systeem niet waterdicht. Er kan om wat voor reden dan ook een foute positieve match naar voren komen, wat verregaande gevolgen kan hebben voor een onterecht beschuldigde gebruiker. Een deel van de kritiek is hier ook op gebaseerd. Apple zegt de privacy van gebruikers te waarborgen, maar tegelijkertijd is het de realiteit dat Apple onterecht foto’s uit jouw bibliotheek als CSAM kan aanmerken.

#10 Kan ik dit uitzetten?

Zoals aan het begin al gezegd, gaat Apple dit in eerste instantie alleen invoeren in de VS. Apple heeft bevestigd dat de CSAM-detectie niet toegepast wordt als iCloud-foto’s is uitgeschakeld. Wil je dus niet dat hashes van foto’s op je device gematcht worden met hashes van een bewezen CSAM-database, dan moet je iCloud-fotobibliotheek uitschakelen.

Voor wat betreft het analyseren van afbeeldingen die gedeeld worden via iMessage, geldt dat dit werkt via opt-in. Ouders kunnen dit voor hun kinderen inschakelen, om kinderen te waarschuwen voor mogelijk gevoelige beelden. Wil je als ouder niet dat foto’s in iMessage geanalyseerd worden, dan kun je het uitgeschakeld laten.

#11 Apple staat toch voor privacy? Dat lijkt hiermee geschonden!

Er is vanuit de hoek van experts veel kritiek op de maatregelen die Apple hier genomen heeft. Experts van de Center for Democracy & Technology waarschuwen voor de gevolgen van een dergelijk systeem. Het verzwakt volgens hen de privacy van gebruikers. iMessage is standaard end-to-end versleuteld, maar dit wordt afgezwakt als Apple verstuurde foto’s op inhoud analyseert.

#12 Apple zegt toch nooit achterdeurtjes in te bouwen?

De nieuwe maatregelen lijken inderdaad in contrast te staan met eerdere uitspraken van Apple. Apple zegt nooit achterdeurtjes in te willen bouwen in de beveiliging van iOS en de iPhone en iPad, omdat dit misbruikt kan worden. Apple zei in het verleden geen achterdeurtjes voor China te hebben ingebouwd. In een eerdere zaak zei Apple letterlijk het volgende:

Apple heeft nooit een achterdeur van enige soort ingebouwd in iOS, of op een andere wijze de data die is opgeslagen op de iPhone of in iCloud technisch beter toegankelijk gemaakt voor welke buitenlandse regering dan ook.

Met de nieuwe maatregelen lijkt daar juist wel sprake van te zijn, zo zeggen ook privacy-experts. “Het mechanisme dat Apple in staat stelt om berichten in iMessage te scannen is geen alternatief voor een achterdeur. Het ís een achterdeur”, aldus experts.

#13 Wat zijn de gevolgen voor de toekomst?

Apple gebruikt dit systeem nu voor het herkennen van mogelijke foto’s met kindermisbruik. Maar dit zou zomaar de eerste stap kunnen zijn. Overheden willen al jaren dat bedrijven als Apple mogelijkheden inbouwen om bijvoorbeeld versleutelde berichten te kunnen onderscheppen. Apple heeft zich hier jarenlang tegen verzet (de beruchte achterdeurtjes), maar lijkt nu toch enigszins in te stemmen (al is het voor een nobel doel, namelijk het tegengaan van verspreiding van kinderporno). Maar Apple’s argument was altijd dat een eenmaal ingebouwde achterdeur verregaande gevolgen kan hebben. Als je iemand een vinger geeft, kan hij zomaar je hele hand grijpen.

Overheden kunnen (in theorie) steeds meer gaan vragen van Apple en andere techbedrijven. Dat is dan ook de angst die nu leeft bij critici en beveiligingsexperts. Het zou een deur openen naar een vorm van surveillance, zeker in landen waar overheden strenge controle uitoefenen op burgers. Hoe dit zich de komende tijd ontwikkelt, moet de toekomst uitwijzen.

#14 Welke acties zijn er al gestart tegen Apple?

Critici hebben Apple in een open brief gevraagd om het plan te staken. De brief is ondertekend door privacy-experts, wetenschappers, onderzoekers, burgerrechtenbewegingen en consumenten. Volgens de auteurs bouwt Apple op deze manier een achterdeurtje in en brengt het de privacy van klanten in gevaar. Apple zou kunnen toegeven aan druk van bepaalde regimes om de functie ook in te zetten voor andere doeleinden. Zo heeft Apple de functie FaceTime uitgeschakeld in Saudi-Arabië, de Verenigde Arabische Emiraten en Pakistan onder druk van lokale wetgeving. Ook stellen de auteurs dat beelden op heel verschillende manieren geïnterpreteerd kunnen worden. “Voor de ene persoon zijn sommige beelden kindermisbruik, voor iemand anders kan dat niet zo zijn.” Zo wordt in de Verenigde Staten paniekerig gereageerd op beelden van een blote tepel, terwijl dat in andere landen niet meteen als porno wordt gezien.

Ook hebben andere bedrijven zich gemeld. WhatsApp-baas Will Cathcart stuurde een reeks tweets de wereld in waarin hij de plannen van Apple veroordeelt. Hij vindt het een stap in de verkeerde richting en vindt dat het de privacy van mensen wereldwijd bedreigt. WhatsApp’s moederbedrijf Facebook neemt het echter ook niet zo nauw met privacy.

#15 Hoe reageert Apple op alle ophef?

Apple lijkt nog niet van gedachte te zijn veranderd na alle ophef. Apple heeft wel een eigen FAQ gepubliceerd, waarin enkele belangrijke vragen beantwoord worden. Echt nieuwe informatie levert dit niet op. Apple zegt dat techniek voor de CSAM-detectie uitsluitend hiervoor gebruikt zal worden. Ook zegt Apple dat verzoeken van overheden om andere beelden dan CSAM-foto’s aan de database toe te voegen, geweigerd zullen worden. Tegelijkertijd zijn de antwoorden soms wat misleidend. Apple zegt dat niet alle foto’s gescand worden, omdat het alleen toegepast wordt op foto’s die gebruikers naar iCloud geupload hebben. Maar in de realiteit betekent dit toch dat alle foto’s vergeleken worden met hashes uit de database, omdat in het geval van iCloud-fotobibliotheek de complete fotobibliotheek geüpload is. Er is geen mogelijkheid om per foto te kiezen welke je wel of niet in iCloud wil zetten (en dus om aan te geven welke wel of niet gescand en vergeleken mogen worden).

Je vindt de FAQ over CSAM van Apple en de communicatiebeveiliging in iMessage op deze pagina.

Revisiegeschiedenis:

  • 2021 - 03 september: De functie is een paar maanden uitgesteld.
  • 2021 - 09 augustus: Link naar eigen FAQ van Apple toegevoegd.

Suggestie hoe we dit artikel kunnen verbeteren? Laat het ons weten!

29 reacties

Plaats een reactie

Als je een eigen afbeelding bij je reactie wil, moet je je aanmelden bij Gravatar. Daar kun je jouw e-mailadres koppelen aan een afbeelding.

Suggestie hoe we dit artikel kunnen verbeteren?
Laat het ons weten!

Off-topic reacties worden verwijderd. Linken naar illegale bronnen is niet toegestaan. Respecteer onze algemene gedragsregels. Gebruik voor eventuele spelfouten of andere opmerkingen met betrekking tot het artikel s.v.p. onze artikelrapportage. Voor opmerkingen over ons moderatiebeleid kun je ons contactformulier gebruiken. Reacties met betrekking hierover worden als off-topic beschouwd.
Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactiegegevens worden verwerkt.