kinderen-op-ipad

Apple stelt CSAM misbruikdetectie een paar maanden uit

Apple zal de controversiële functionaliteit omtrent het detecteren van kindermisbruik uitstellen. De functie zou onderdeel worden van iOS 15, wat deze maand wordt verwacht.
Daniel Vischjager - · Laatst bijgewerkt:

Apple stelt CSAM-detectie uit na ophef

In een verklaring op haar website laat Apple weten dat CSAM-detectie geen onderdeel zal zijn van de grote release van iOS 15. Deze aankondiging komt niet geheel onverwacht: veiligheidsexperts en critici van over de hele wereld uitten hun zorgen over de functie, waaronder ook klokkenluider Edward Snowden.


Apple zegt dat het de beslissing baseert op feedback van klanten, belangenbehartigers, onderzoekers en anderen. Het bedrijf laat niet weten wanneer de release zal zijn van CSAM, maar geeft aan dat ze de komende maanden gebruiken voor het verbeteren van de functie. Dit is de verklaring van Apple:

“Update op 3 september 2021: We kondigden vorige maand plannen aan, bedoeld om kinderen te beschermen tegen misbruikers die communicatiemiddelen gebruiken om kinderen te lokken en exploiteren en om de verspreiding van seksueel getint beeldmateriaal van kinderen te beperken. Naar aanleiding van feedback van klanten, belangenbehartigers, onderzoekers en anderen, hebben we besloten om de komende maanden meer tijd te nemen om feedback te verzamelen en verbeteringen te maken voordat we deze zeer belangrijke functie voor kinderveiligheid uitrollen.”

Je kunt de Engelstalige verklaring bekijken op de website van Apple.

Al langer ophef om CSAM

Er was al bij de aankondiging veel ophef omtrent de CSAM functie. Het was niet de intentie van Apple die in het verkeerde keelgat schoot. De mogelijkheid om kindermisbruik te detecteren in foto’s zou volgens experts slechts het begin kunnen zijn. Apple paste de techniek al toe in iCloud Mail en wilde het nu uitbreiden naar iCloud Foto’s.

In een interview met Craig Federighi werd al duidelijk dat Apple inzag niet de beste beslissing te hebben genomen op het gebied van communicatie. Federighi legde op beeld nog eens uit hoe CSAM moet werken en waarom Apple het een veilig systeem acht.

Het is nog helemaal onduidelijk in welke iOS-versie we CSAM kunnen verwachten. Hoewel we de kans zeer klein achten, bestaat ook de mogelijkheid dat Apple de functie schrapt tot nader order. Apple is lastig te voorspellen als het bedrijf slechts meldt dat het om “maanden” gaat.

Suggestie hoe we dit artikel kunnen verbeteren? Laat het ons weten!

13 reacties

Plaats een reactie

Als je een eigen afbeelding bij je reactie wil, moet je je aanmelden bij Gravatar. Daar kun je jouw e-mailadres koppelen aan een afbeelding.

Suggestie hoe we dit artikel kunnen verbeteren?
Laat het ons weten!

Off-topic reacties worden verwijderd. Linken naar illegale bronnen is niet toegestaan. Respecteer onze algemene gedragsregels. Gebruik voor eventuele spelfouten of andere opmerkingen met betrekking tot het artikel s.v.p. onze artikelrapportage. Voor opmerkingen over ons moderatiebeleid kun je ons contactformulier gebruiken. Reacties met betrekking hierover worden als off-topic beschouwd.
Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactiegegevens worden verwerkt.