kinderen-op-ipad

Apple stelt CSAM misbruikdetectie een paar maanden uit

Apple zal de controversiële functionaliteit omtrent het detecteren van kindermisbruik uitstellen. De functie zou onderdeel worden van iOS 15, wat deze maand wordt verwacht.
Daniel Vischjager - · Laatst bijgewerkt:

Apple stelt CSAM-detectie uit na ophef

In een verklaring op haar website laat Apple weten dat CSAM-detectie geen onderdeel zal zijn van de grote release van iOS 15. Deze aankondiging komt niet geheel onverwacht: veiligheidsexperts en critici van over de hele wereld uitten hun zorgen over de functie, waaronder ook klokkenluider Edward Snowden.


Apple zegt dat het de beslissing baseert op feedback van klanten, belangenbehartigers, onderzoekers en anderen. Het bedrijf laat niet weten wanneer de release zal zijn van CSAM, maar geeft aan dat ze de komende maanden gebruiken voor het verbeteren van de functie. Dit is de verklaring van Apple:

“Update op 3 september 2021: We kondigden vorige maand plannen aan, bedoeld om kinderen te beschermen tegen misbruikers die communicatiemiddelen gebruiken om kinderen te lokken en exploiteren en om de verspreiding van seksueel getint beeldmateriaal van kinderen te beperken. Naar aanleiding van feedback van klanten, belangenbehartigers, onderzoekers en anderen, hebben we besloten om de komende maanden meer tijd te nemen om feedback te verzamelen en verbeteringen te maken voordat we deze zeer belangrijke functie voor kinderveiligheid uitrollen.”

Je kunt de Engelstalige verklaring bekijken op de website van Apple.

Bekijk ook

FAQ: Apple’s functies tegen kindermisbruik; privacygevaar of noodzakelijk kwaad?

Apple kondigde een reeks maatregelen aan om kinderen te beschermen en verspreiding van kinderporno tegen te gaan. Zo gaat Apple foto's van kindermisbruik detecteren in iCloud-foto's van gebruikers. Maar het leidt tot veel vragen. Betekent dit dat Apple jouw complete bibliotheek gaat scannen? En wat betekent het voor je privacy?

Al langer ophef om CSAM

Er was al bij de aankondiging veel ophef omtrent de CSAM functie. Het was niet de intentie van Apple die in het verkeerde keelgat schoot. De mogelijkheid om kindermisbruik te detecteren in foto’s zou volgens experts slechts het begin kunnen zijn. Apple paste de techniek al toe in iCloud Mail en wilde het nu uitbreiden naar iCloud Foto’s.

Bekijk ook

FAQ: Apple’s functies tegen kindermisbruik; privacygevaar of noodzakelijk kwaad?

Apple kondigde een reeks maatregelen aan om kinderen te beschermen en verspreiding van kinderporno tegen te gaan. Zo gaat Apple foto's van kindermisbruik detecteren in iCloud-foto's van gebruikers. Maar het leidt tot veel vragen. Betekent dit dat Apple jouw complete bibliotheek gaat scannen? En wat betekent het voor je privacy?

In een interview met Craig Federighi werd al duidelijk dat Apple inzag niet de beste beslissing te hebben genomen op het gebied van communicatie. Federighi legde op beeld nog eens uit hoe CSAM moet werken en waarom Apple het een veilig systeem acht.

Het is nog helemaal onduidelijk in welke iOS-versie we CSAM kunnen verwachten. Hoewel we de kans zeer klein achten, bestaat ook de mogelijkheid dat Apple de functie schrapt tot nader order. Apple is lastig te voorspellen als het bedrijf slechts meldt dat het om “maanden” gaat.

Bekijk ook

Apple's Craig Federighi over kinderfoto's scannen: 'Niet goed aangepakt'

Apple-topman Craig Federighi heeft in een interview gereageerd op de ophef en verwarring die is ontstaan na Apple's CSAM-maatregelen tegen kindermisbruik. Daarnaast heeft Apple (alweer) een nieuw uitlegdocument online gezet.

Suggestie hoe we dit artikel kunnen verbeteren? Laat het ons weten!

13 reacties

Reacties zijn gesloten voor dit artikel.