Craig Federighi en privacy

EU wil dat techbedrijven scannen naar kindermisbruik

Privacy-experts slaan alarm: de EU wil dat aanbieders van chatapps privéberichten gaan scannen om kindermisbruik en -porno te achterhalen. Voor Apple dreigt er een terugkeer van alle ophef rondom CSAM.

EU wil burgers scannen op CSAM-content

Vorig jaar kreeg Apple forse kritiek op het plan om CSAM misbruikdetectie in te voeren. Daarmee wilde het bedrijf materiaal onderscheppen waarop kindermisbruik te zien is. Volgens de EFF zou Apple het plan helemaal uit het hoofd moeten zetten. Het lijkt erop dat dit ook gedaan is, want sinds december 2021 zijn alle verwijzingen naar CSAM verwijderd van de website. Apple gaf aan dat de functie “een paar maanden” zou worden uitgesteld, maar het lijkt nu helemaal te zijn afgeblazen. Een nieuw voorstel van de EU brengt het onderwerp weer terug op de agenda: de EU wil dat techbedrijven wél een achterdeurtje aanbrengen om te kunnen scannen naar kinderporno.


Het voorstel van de EU is al “onwerkbaar” genoemd en maakt volgens privacy-experts te veel inbreuk op het leven van gewone burgers. Het gaat om apps zoals WhatsApp, Facebook Messenger en iMessage, waarbij het mogelijk moet zijn om selectief de privéberichten van gebruikers te scannen naar CSAM-content (child sexual abuse material). Volgens deskundigen is het plan vergelijkbaar met dat van Apple en gaat het zelfs nog een paar stappen verder.

Cryptografie-hoogleraar Matthew Green liet weten:

Dit document is het meest angstaanjagende dat ik ooit heb gezien. Het beschrijft de meest geavanceerde mass surveillance-machine die ooit is ingezet buiten China en de USSR. Ik overdrijf niet.

Ook Jan Penfrat van European Digital Rights (EDRi) is bezorgd en noemt het schandalig. Het past in geen enkele vrije democratie. Online dienstenaanbieders zoals appwinkels, hostingbedrijven en aanbieders van communicatiediensten zijn verplicht om de berichten van geselecteerde gebruikers te scannen op CSAM-content als de EU daarom vraagt. Ook moet worden gelet op ‘grooming’ en kinderlokkersactiviteiten. Met behulp van beeldherkenning en AI moet de inhoud van afbeeldingen en teksten worden gescand. In de EU gaat het ook om nog onbekende CSAM-content, terwijl Apple alleen bekende plaatjes wilde herkennen, waardoor de kans op onterechte beschuldiging kleiner is.

Europa kaart

De EU-lidstaten kunnen opdracht geven om onderzoek te doen. Volgens de Europese Commissie gaat het om activiteiten gericht op bepaalde individuen, om te voorkomen dat de privacy te veel in gevaar komt. Toch zegt de wet niet op welke basis deze opdrachten kunnen worden verstrekt en of ze op individuen of op groepen zijn gericht. Het zet de deur op een kier voor algemeen toezicht op wat burgers doen. Een ander probleem is dat het voorstel het gebruik van end-to-end encryptie ondermijnt, zoals bij WhatsApp en Signal wordt gebruikt. Het is vrijwel onmogelijk om de CSAM-content op te sporen als tegelijk end-to-end encryptie wordt toegestaan. Privacy-experts zijn ook bang dat EU-wetgeving toonaangevend genoeg is om te worden overgenomen door totalitaire regimes elders ter wereld. Maar los daarvan: volgens sommige experts is het hele voorstel technisch totaal niet haalbaar en is het opgesteld door bureaucraten, niet door IT-experts.

Een vergelijking van het gelekte voorstel en het uiteindelijke voorstel is hier te zien. Hieruit blijkt dat er inhoudelijk geen relevante wijzigingen zijn aangebracht.

Reacties: 7 reacties

Reacties zijn gesloten voor dit artikel.