Reacties voor: FAQ: Apple’s functies tegen kindermisbruik; privacygevaar of noodzakelijk kwaad?

Apple kondigde een reeks maatregelen aan om kinderen te beschermen en verspreiding van kinderporno tegen te gaan. Zo gaat Apple foto's van kindermisbruik detecteren in iCloud-foto's van gebruikers. Maar het leidt tot veel vragen. Betekent dit dat Apple jouw complete bibliotheek gaat scannen? En wat betekent het voor je privacy?
Benjamin Kuijten | iCulture.nl - · Laatst bijgewerkt:

Reacties: 29 reacties

  1. Geld dit ook voor fotos die je via je reservekopie opslaat

    Of echt alleen iCloud foto’s?

  2. Hoewel het misbruik van kinderen verachtelijk is, lijkt me dit een verkeerde maatregel. Het is een kwestie van tijd(-sgeest) dat ook andere zaken zullen worden ‘gescand’. Het unique selling point van Apple is hiermee verleden tijd. Ik zou willen dat Apple zich ook zo druk zou maken om het misbruik van kinderen in de Chinese fabrieken waar iPhones in elkaar worden geschroefd.
    Ondanks het feit dat het in dit geval wordt ingezet voor een goede zaak, zal de samenleving langzaam veranderen in een soort big brother is watching you. Als je kijkt hoever men hierin al gaat in China belooft dit niet veel goeds.

  3. Lang verhaal kort. Wil je dit niet, dan iCloud foto’s uitschakelen en geen iMessage gebruiken.

  4. Origineel geplaatst door HB
    Lang verhaal kort. Wil je dit niet, dan iCloud foto’s uitschakelen en geen iMessage gebruiken.

    Jouw reactie is te kort door de bocht. Alle andere tech-bedrijven doen het al. Dus als je een foto upload naar Facebook, een mail verzend via Hotmail of Gmail gebeurt dit scannen ook al.

    Ik vind het wel zorgelijk dat een eerste stap wordt gemaakt naar het openzetten van iOS al is het doel begrijpelijk en nobel.

  5. @HB: Je stapt er nogal makkelijk overheen. Als je zo redeneert kun je over een poosje je hele iPhone uitschakelen.

  6. Laten we met z’n allen iCloud boycotten, dan zal  verplicht zijn om het aan aan te passen/terug draaien of/en privacy te verbeteren!!

  7. Dit betreft niet alleen de cloud. Apple bouwt tevens functies in om op je iPhone te kunnen scannen. De internationale tech sites lopen momenteel storm. Dit is echt een nieuwe dimensie. De technologie er achter kan ook versleutelde Whatsapp/Signal/Telegram berichten gaan omvatten omdat dit op het toestel plaatsvindt. Nu nog bepaalde foto’s, met een druk op de knop is aanpassing mogelijk.

  8. Het is een illusie te denken dat er nog iets niet gemonitord kan worden of al wordt gedaan. Natuurlijk is het recht op privacy het allergrootste.
    Maar ik denk dat als je slachtoffer ben, en er worden foute foto’s van je (of je kind) gedeeld en bewaard. Dan heb je vast een ander gevoel bij het harde geroep om privacy. Het idee dat er iets wordt gedaan tegen hufters die foute foto’s hebben/delen/en maken maakt mij blij. En als het dan met respect van privacy kan helemaal geweldig.

  9. Er is veel commotie over dit plan van Apple dat via haar marketing iedereen doet geloven dat het met privacy wel goed zit bij hun producten…

  10. Toch wel ernstige zaken in mijn feed vandaag gelezen…

    – Minister Grapperhaus wil overleg met critici over afzwakken encryptie WhatsApp (onder het mom van terreur en criminaliteit).
    – Actueel… Apple die justitie taak wilt vervullen door prive klantbestanden te scannen… ??

    Best zorgwekkende ontwikkeling in mijn ogen.

    Kindermisbruik is zeer ernstig maar dit is niet taak van Apple maar eerder daarvoor bestemde diensten.

    Ik boycot dan sowieso iCloud zodra Apple mijn bestanden mag scannen. Off-topic; Gaan we straks ook drones onze huizen laten doorzoeken omdat een algoritme X-persoon als potentieel gevaar bestempeld?

  11. Apple controleert enkel of je kinderporno (i.e. CSAM-foto’s die reeds ontdekt zijn) hebt gedownload zonder alle andere foto’s te analyseren. Een match is puur het resultaat van een rekensom, zonder beeldanalyse.

    Het systeem dat Apple zal hanteren is bovendien niet moeilijk te bedriegen. Immers, het spreekt voor zich dat de ‘gevoeligheidsgraad’ van dit soort algoritmes voor diverse beeldbewerkingen van de originele foto uiteraard steeds met het aantal “valse positieven” samenhangt. Volgens Apple is slechts “één op een biljoen positieve matches” effectief valse positief. Dit betekent dat er tijdens deze detectie maar heel weinig marge voor eventuele afwijkingen van het originele beeld toegestaan wordt, ofwel dat je enkel foto’s met een zeer hoge overeenkomst met het origineel aangeduid worden.

    Who cares? Ik heb er alleszins geen enkel probleem mee om mijn iCloud-foto’s op dat soort uitermate sterk overeenkomende gelijkenis met kinderporno te laten screenen.

    Of dit kan leiden tot toekomstig misbruik? Je kan als gebruiker in elk geval niet meer doen dan te hopen dat Apple in dergelijke gevallen de juiste keuze maakt. Misschien zal een bepaalde overheid op basis van hiervan inderdaad sterke druk op Apple zetten om deze technologie anders in te zetten. Volgens mij is dit echter niet de oorzaak, maar hooguit de aanleiding – deze machthebbers zouden immers in dergelijke gevallen vroeg of laat sowieso dergelijke eisen geuit hebben.

    Ik vind persoonlijk dat enkel maar deze vrees voor eventuele, misschien zelfs onvermijdelijke (je kan de technologie namelijk niet zomaar laten verdwijnen) misbruiken in de toekomst ons niet ervan mag weerhouden om met deze technieken vandaag problemen te proberen oplossen. We moeten ervoor zorgen dat onze (zeker noodzakelijke) digitale privacy anderzijds niet tot een totale straffeloosheid van misdrijven leidt

  12. @Pieter: Je mist de essentie van het hele verhaal. Apple scant op jouw toestel naar (nu nog) foto’s. Op basis van een niet hash, want dan is 1 bit verschil genoeg het systeem te omzeilen. Apple scant materiaal op jouw toestel (vergelijkbaar met jouw woning even te doorzoeken om vast te stellen of je iets hebt uitgevreten zonder indicatie dat je verdachte bent). Deze “zoek op jouw telefoon-functie”is een gigantisch gat qua beveiliging op je telefoon en kan al dan niet onder druk van regimes of goede hackers erg makkelijk worden gebruikt voor andere zaken dan foto’s scannen. Apple heeft op jouw telefoon gewoon niks te zoeken, het is vrij aanmatigend om op alle Macs/iPhones zonder dat hier een rechter aan te pas komt data te doorzoeken, te labelen en up te loaden. Want exact dat is wat Apple nu invoert. Microsoft en Google scannen hun cloud, Apple jouw toestel….

  13. Dit is toch te gek voor woorden! Een particulier bedrijf dat voor politie en rechter gaat spelen door dagelijks huiszoekingen doet op je telefoon om te kijken of je niets verdachts hebt gedaan.

  14. (Red.) Link naar eigen FAQ van Apple toegevoegd.

  15. Dit is een heel lastig onderwerp, en dat zie je al aan de uiteenlopende reacties. Het recht loopt hier m.i. iets in achter, de ontwikkelingen op IT gaan zo snel dat het moeilijk is om dit voor het rechtssysteem bij te benen. Bijv. Iedereen heeft tegenwoordig een hoge kwaliteit digitale camera, met een computer en snelle internet verbinding op zak. Hierin is een vacuüm ontstaan tussen wat de IT aan mogelijkheden en de spelregels. Ik vind het alleen niet juist dat een commercieel bedrijf dan in dit vacuüm gaat acteren zonder expliciet verzoek van de overheid. Al hebben ze wel een morele plicht aangezien zij degene zijn die de innovaties voort stuwen. Vergelijk het met de autogordel, toen Ford hiermee kwam in 1956, was het om de gebruikers van de auto te beschermen. Tegenwoordig is het een verplichting dat die in iedere auto zit en dat je die draagt. De wet ijlt altijd iets na, alleen tegenwoordig op het gebied van IT iets meer. De geneugten van de snelle veranderingen binnen de IT omarmen we met heel veel liefde, de beperkingen helaas niet waardoor het nog meer vertraagt wordt.

    De mensen die nu hoog en laag springen dat het schande is dat Apple dit doet, Apple is relatief laat met deze oplossing, andere tech giganten doen het al jaren. Ze zien daarvoor niet je foto’s, ze kijken naar de hash en vergelijken dit met een lijst aan hashes (meervoud van hash?) die samengesteld is door met name de NCMEC.

    Persoonlijk vind ik de oplossing ook niet toereikend. Het richt zich namelijk op bestaand materiaal. Zodra het riskanter is bestaand materiaal te hebben tegenover nieuw materiaal te maken…. nou ja dan snap je het wel. Dus wat mij betreft zouden de logaritmes aangescherpt kunnen worden om ook nieuw beeldmateriaal te herkennen.

    Hoe dan ook is het dweilen met de kraan open. Het internet brengt de meest uiteenlopende mensen steeds makkelijker bij elkaar. Hiermee worden gevoelens versterkt en makkelijker met elkaar gedeeld als zijnde ‘normaal’. Daarnaast heb je een segment van ‘gebruikers’ die continu opzoek zijn naar een seksuele kick. Hoe groter de taboe, hoe groter de kick. Die seksuele kick is steeds moeilijker te vinden omdat alles ‘normaal’ is, als je het kunt bedenken is er vast wel een website die erop in is gespeeld. Deze groepering zal mogelijk nooit de theorie in praktijk brengen, alleen vergeten gemakshalve dat het pornografische materiaal wel gemaakt moet worden. Waar weer een verdienmodel achter zit.

    De roep voor privacy en de roep van veiligheid staan continu lijnrecht tegenover elkaar. Wat ook goed is, want daarmee hou je alles scherp. Alleen de ontwikkelingen op het gebied van IT en wereldwijd de toegankelijkheid hiervan, maakt dit een hele moeilijke en daardoor vertragende discussie.

    Ik heb enige tijd gewerkt voor de Raad voor de Kinderbescherming, waardoor ik dit mogelijk vanuit een gekleurd perspectief schrijf.

  16. Kan zijn dat ik er compleet overheen lees. Maar een hee belangrijk ding vind ik de vraag “wat gebeurt er als er iets gedetecteerd wordt”.
    Oké in het artikel staat dat personen <13 jaar een melding krijgen als ze een mogelijke foute foto toegestuurd krijgen.

    Maar wat als “het algoritme “ een mogelijk foute foto bij jou vind.
    Microsoft en Google zijn al bekend om het blindelings afsluiten van accounts als er iets MOGELIJK verdachts gevonden wordt. Zonder recht op verdediging, uitleg, weerwoord of kans op herstellen van het account. Ook bij account waas mensen vee geld in hebben zitten (xbox aankopen bijvoorbeeld).

    Dus krijg je alleen maar een waarschuwing dat er iets gevonden is met de mogelijkheid of het verzoek dit te verwijderen of iets dergelijks of gaat Apple ook de kant op dat accounts geblokkeerd worden zonder mogelijkheid op een weerwoord.

    Dat lijkt me toch een zeer belangrijke vraag waarvan ik nog steeds geen antwoord lees.

  17. Precies wat hier boven geschreven wordt. En vinden ze een mooie vakantiefoto die toevallig voldoet aan deze criteria (vals positief, lees de Microsoft en Google topics) dan ben je toegang tot al je data en aankopen kwijt. Ik had net 500gb foto’s geëmigreerd naar icloud, gaat er komende weken weer allemaal uit…

  18. @Pieter: Mooi verwoord, vooral die laatste alinea.

  19. Origineel geplaatst door Ranney
    Precies wat hier boven geschreven wordt. En vinden ze een mooie vakantiefoto die toevallig voldoet aan deze criteria (vals positief, lees de Microsoft en Google topics) dan ben je toegang tot al je data en aankopen kwijt. Ik had net 500gb foto’s geëmigreerd naar icloud, gaat er komende weken weer allemaal uit…

    De situatie die je nu schetst is haast niet mogelijk. De kans dat jou vakantiefoto’s gaan voldoen aan die normen zijn zeer onwaarschijnlijk, of je moet op je vakantie foto’s maken die extreem veel lijken op bestaande pornografische afbeeldingen van kinderen.
    Natuurlijk zullen er in het begin fouten zijn gemaakt door Google en MS, dat sluit ik niet uit. En het is heel kwalijk als er onschuldige mensen ergens van zijn beticht of toegang zijn kwijtgeraakt tot een medium. Alleen Apple kennende, komen ze vaak pas op de markt met een oplossing als een andere partij de kinderziektes eruit heeft gehaald. (Tile bijv.)

    In het artikel wordt aangegeven dat Apple een melding zal doen bij een justitiële instantie. Deze instantie zal dan vervolg onderzoek doen of er daadwerkelijk sprake is van een misdrijf. Een account zou mogelijk, afhankelijk van de aard van het misdrijf, in de tussentijd geseponeerd kunnen worden gedurende het onderzoek op verzoek van de justitiële instantie.

    De vraag die in mijn achterhoofd knaagt is:
    Als die mensen ten onrechte zijn afgesloten, hebben ze daarna weer toegang gekregen en hebben ze dit vervolgens gedeeld op hetzelfde forum? Of bleek het achteraf terecht te zijn en hebben ze dat vervolgens gedeeld op hetzelfde forum? Of zijn het allemaal slachtoffers die ten onrechte zijn afgesloten en vervolgens nooit meer toegang hebben gekregen?

    Ander onderwerp:
    In het artikel worden de Amerikaanse autoriteiten genoemd, ik vraag me af of dat mag met Nederlandse data of dat het naar de Nederlandse autoriteiten gestuurd wordt? Kan ook zijn dat er bij het schrijven van het artikel hier niet bij stil is gestaan en dat het per definitie naar de autoriteiten gaat waar de gebruiker woonachtig is.

  20. Ik ben van mening dat dit een noodzakelijk kwaad is. Helaas zijn er teveel slechte mensen op de wereld die het nodig vinden om onschuldige kinderen te misbruiken.
    Ik als vader offer graag een beetje privacy op om kinderen te beschermen.
    En 12 miljoen mensen delen sowieso al alles met FB en 10 miljoen delen alles met whatsapp/messenger dus lijkt me een beetje delen met  dan ook niet zoveel meer uitmaken.
    Dit is mijn mening en ga ik verder niet over in discussie.

  21. Goed plan! Geen probleem mee. Het wordt tijd voor strengere maatregelen tegen dit soort beestachtige praktijken. Ik heb niets te verbergen en te vrezen. Besef dat alles wat je deelt of opslaat per definitie al over de schutting is gegooid. Apple is daar tenminste transparant over.

  22. Zorgelijke reactie van Apple. Deze komt echter niet onverwacht. Apple is helaas vaak van mening dat zij de regels maken en dan is het slikken of stikken. Met deze stap gaan ze echter (gelukkig niet alleen volgens mij) een grote stap te ver. Het verdacht maken van alle gebruikers, het implementeren van Spyware op de devices. Het scannen en versturen van materiaal vanaf devices. Als ik hier dan lees dat men bereid is graag “een beetje” privacy in te leveren kan het alleen maar betekenen dat de impact van deze stap niet duidelijk is. Het doel van dit gebeuren wordt niet bereikt, en alle devices vanaf iOS 15 incl content scanner voor de encryptie met upload… zorgelijk, ik zat te wachten op de nieuwe Mac Book, maar zo koop ik hem zeker niet.

  23. Lees de tekst in het artikel en verdiep je eens in BlockChain dan zal je je realiseren dat Apple privacy nog steeds hoog in het vaandel heeft. Apple vergelijkt de hash van jouw digitale bestand met de hash in een database.
    De vraag of het een taak is van een onderneming is een goede maar ik zou me pas echt zorgen gaan maken als Apple dit proces zou over laten aan autoriteiten.

  24. Origineel geplaatst door Arie
    Lees de tekst in het artikel en verdiep je eens in BlockChain dan zal je je realiseren dat Apple privacy nog steeds hoog in het vaandel heeft. Apple vergelijkt de hash van jouw digitale bestand met de hash in een database.

    De vraag of het een taak is van een onderneming is een goede maar ik zou me pas echt zorgen gaan maken als Apple dit proces zou over laten aan autoriteiten.

    Compleet oneens. Apple implementeert een scan-systeem op apparatuur van klanten. Op basis van een (deels) near hash. Dit heeft niks met een block chain te maken – maar dan ook compleet niks. Het is gewoon een gigantische stap een scan systeem OP een gekocht toestel te implementeren. Een systeem dat bovendien bestanden die het “verdenkt” upload en ter beoordeling aanbiedt. Dit systeem kan vandaag de rotzooi zoeken waarvoor het zogenaamd is gemaakt, morgen dissidenten, overmorgen interessante documenten van bedrijven. Daarnaast kan het nog eens worden gehackt. In plaats dat Apple eens reageert op de kritiek nav Pegasus, het feit dat heel veel erkende security engineers melden dat Apple grote stukken software opnieuw moet programmeren omdat de fabel “onze software is veilig” zwaar is achterhaald… implementeren ze een spy functie op alle toestellen die ze aanbieden. Doorzoeken is voorbehouden aan andere instanties na beoordeling van een rechter – niet aan Apple. Dit is iets wat zelfs Facebook, Microsoft en consorten niet in het hoofd halen. Zij scannen in clouds, maar niet op end devices met alle risico’s van dien. Gelukkig lopen niet de minste organisaties storm tegen dit plan. Het zal Apple typisch niks helpen, maar mensen worden wel bewust van keuzes. Extra betalen voor een stuk privacy? Dat is geen argument meer. Apple zal op andere wijze met de technisch op veel gebied geavanceerdere, gunstigere concurrentie moeten dealen. Ik ben heel benieuwd.

  25. Origineel geplaatst door Sander
    Goed plan! Geen probleem mee. Het wordt tijd voor strengere maatregelen tegen dit soort beestachtige praktijken. Ik heb niets te verbergen en te vrezen. Besef dat alles wat je deelt of opslaat per definitie al over de schutting is gegooid. Apple is daar tenminste transparant over.

    “Ik heb niets te verbergen” impliceert dat je weet wat je te verbergen hebt en voor wie. En ‘wie’ is natuurlijk niet alleen 

  26. Origineel geplaatst door Arie
    Lees de tekst in het artikel en verdiep je eens in BlockChain dan zal je je realiseren dat Apple privacy nog steeds hoog in het vaandel heeft. Apple vergelijkt de hash van jouw digitale bestand met de hash in een database.

    De vraag of het een taak is van een onderneming is een goede maar ik zou me pas echt zorgen gaan maken als Apple dit proces zou over laten aan autoriteiten.

    Inderdaad. Iedereen heeft direct een mening klaar voordat men zich ook maar even verdiept hoe het werkt.

  27. Hoe nobel het doel ook is, ik vind het niet terecht om onacceptabele methoden te gaan gebruiken om dat doel te bereiken. Dit gaat ten kosten van alle gebruikers en ook ik denk: wat volgt er later wellicht nog meer. Nee Apple, ook in mijn ogen gaan jullie hiermee te ver en ook al beloven jullie de privacy overeind te houden, begin ik hier nu een gezond wantrouwen tegen te koesteren. Per slot beloven alle techbedrijven dat onze privacy in goede handen is. Ondertussen weten wij wel beter. Hou je bij je leest Apple, gewoon goeie producten maken en stoppen met het uithangen van de moraalridder of voor politieagentje gaan spelen. Als dit daadwerkelijk in Nederland gaat worden ingevoerd dan stop ik met het gebruik van alle Apple apparatuur. En nee, ik heb ook niks te verbergen maar ik weiger toe te staan dat techbedrijven voor mij gaan bepalen wat er goed of fout is. Dan maar een Nokia 3310.

  28. @hans: Apple bepaalt ook niet “wat er goed of fout is” dat doet de wetgever.

  29. (Red.) De functie is een paar maanden uitgesteld.

Reacties zijn gesloten voor dit artikel.