iCloud Fotobibliotheek

Gerucht: ‘Apple ontwikkelt tool om kindermisbruik te herkennen in foto’s van gebruikers’

Apple zou binnenkort een zogenaamde CSAM-scanning tool aankondigen. Dit hulpmiddel kan foto's met kindermisbruik herkennen, om zo illegale content op te sporen.
Benjamin Kuijten | iCulture.nl - · Laatst bijgewerkt:

Update 5 augustus 21:30 uur: Inmiddels heeft Apple de maatregelen om kinderen beter te beschermen officieel aangekondigd.

FAQ Apple's functies tegen kindermisbruik
In een uitgebreide FAQ hebben we de belangrijkste vragen over Apple’s nieuwe functies tegen kindermisbruik voor je beantwoord, inclusief de nodige kritiek op de nieuwe maatregelen. We bespreken daarin zowel hoe de nieuwe functie werkt als de mogelijke gevaren.

Apple gebruikt in de Foto’s-app de machine learning-mogelijkheden van de iPhone en iPad om onderwerpen in foto’s te herkennen. Je kan daardoor makkelijk zoeken naar bepaalde foto’s in je bibliotheek, bijvoorbeeld foto’s van dieren of landschapsfoto’s. Beveiligingsexpert Matthew Green zegt van meerdere onafhankelijke bronnen vernomen hebben dat Apple’s volgende stap is het invoeren van CSAM-scanning. CSAM staat voor Child Sexual Abuse Material en scant foto’s op mogelijk kindermisbruik.

‘Apple gaat je foto’s scannen op kindermisbruik’

Een dergelijke tool geeft Apple dus de mogelijkheid om je foto’s te scannen en te checken op specifieke punten die mogelijk wijzen op foto’s met kindermisbruik. Hoewel de exacte details nog niet duidelijk zijn, kunnen dergelijke foto’s bij herkenning van meerdere van die specifieke punten verstuurd worden naar de servers van Apple, zodat deze handmatig gecheckt kunnen worden. Apple zou dit dus gebruiken voor foto’s die in de cloud opgeslagen staan, dus in het geval van Apple in iCloud-fotobibliotheek.

De iCloud-fotobibliotheek is niet end-to-end versleuteld, net als veel andere soortgelijke clouddiensten voor foto-opslag. Er zit wel encryptie op, maar de sleutel om de beveiliging te ontgrendelen is ook in handen van Apple. Dit doet Apple op verzoek van overheden, die op deze manier gegevens kunnen opvragen als daar aanleiding voor is.

Het invoeren van CSAM-scanning kan zorgen voor privacybezwaren, ook omdat een dergelijk systeem fouten kan maken onschuldige foto’s onterecht aanziet voor foto’s met kindermisbruik. Het systeem kan daardoor misbruikt worden om ook andere foto’s te analyseren. Zeker als overheden gebruik gaan maken van dergelijke middelen en eisen dat ook andere partijen dit in gaan voeren.

Apple verzet zich tegen achterdeurtjes
Apple heeft zich jarenlang verzet tegen achterdeurtjes in de beveiliging. Chatdiensten als iMessage en WhatsApp zijn end-to-end versleuteld, waardoor bijvoorbeeld overheden niet zomaar kunnen meelezen. Overheden zien daardoor liever dat bedrijven als Apple tools aan de beveiliging toevoegen zodat rechtmatige personen toch kunnen meekijken, mocht daar aanleiding voor zijn. Maar het nadeel is dat dergelijke systemen ook misbruikt kunnen worden. Als dit in verkeerde handen valt, kan dat grote privacygevolgen hebben.

Het is niet duidelijk hoe en wanneer Apple het gebruik van CSAM-scanning gaat aankondigen. Volgens de beveiligingsexpert zou Apple dit morgen gaan vrijgeven. De vraag is of Apple dit ook publiekelijk gaat aankondigen.

Revisiegeschiedenis:

  • 2021 - 06 augustus: Link naar de nieuwe FAQ toegevoegd waarin we de belangrijkste vragen beantwoorden en de kritiek op Apple's maatregelen verder uitlichten.
  • 2021 - 05 augustus: Apple heeft de tools nu officieel aangekondigd, zie update in het artikel.

Suggestie hoe we dit artikel kunnen verbeteren? Laat het ons weten!

17 reacties

Plaats een reactie

Als je een eigen afbeelding bij je reactie wil, moet je je aanmelden bij Gravatar. Daar kun je jouw e-mailadres koppelen aan een afbeelding.

Suggestie hoe we dit artikel kunnen verbeteren?
Laat het ons weten!

Off-topic reacties worden verwijderd. Linken naar illegale bronnen is niet toegestaan. Respecteer onze algemene gedragsregels. Gebruik voor eventuele spelfouten of andere opmerkingen met betrekking tot het artikel s.v.p. onze artikelrapportage. Voor opmerkingen over ons moderatiebeleid kun je ons contactformulier gebruiken. Reacties met betrekking hierover worden als off-topic beschouwd.
Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactiegegevens worden verwerkt.