kinderen-op-ipad

Reacties voor: Apple neemt maatregelen om kinderen beter te beschermen

Apple gaat in iMessage, Siri en iCloud Foto's nieuwe maatregelen toevoegen om te zorgen dat kinderen veilig zijn. Het moet ze onder andere beschermen tegen aanstootgevend materiaal.
Gonny van der Zwaag | iCulture.nl - · Laatst bijgewerkt:

Reacties: 23 reacties

  1. Tijd dus om iCloud foto’s uit te schakelen. Heb ik gelijk maar gedaan, en ook al mijn oude foto’s van iCloud afgehaald. Privacy gaat boven alles.

  2. Origineel geplaatst door Sander Evers
    Tijd dus om iCloud foto’s uit te schakelen. Heb ik gelijk maar gedaan, en ook al mijn oude foto’s van iCloud afgehaald. Privacy gaat boven alles.

    Want je hebt foto’s met kinderen?
    Als Apple je foto’s wilde bekijken hadden ze dat allang gedaan hoor

  3. Heel mooi geformuleerd door iCulture…maar dit is een enorme stap in het “wij beschermen uw privacy verhaal” en zijn de Good Guy gebeuren.

    “Apple scant data van al haar users” zou er moeten staan. Vandaag alleen om Y te voorkomen, morgen om Z te voorkomen en overmorgen om Q van informatie te voorzien.

    Dus Apple gaat (nu publiekelijk) ordinair de data van gebruikers doorzoeken. Hoe zat dat met alles is versleuteld, kunnen we niet bij. Vandaag in de cloud, morgen helpt de ki Chip op het toestel?

    Google is misschien toch niet zo evil, beide partijen doen niet onder voor elkaar.

  4. Ik snap het, maar toch vraag ik me ook af of ik dan nog wel mijn foto’s in icloud wil blijven bewaren. Wat zijn goede alternatieven die ook een goede app erbij hebben die vergelijkbaar of beter zijn met de foto’s en bestanden app van Apple? Als ik dat hier mag vragen…

  5. Aan de ene kant vind ik het goed dat ze hier aan denken maar dan moeten ze wel de privacy niet verloren laten gaan!

  6. Ik mis de kritische blik in het artikel Gonny, klinkt allemaal heel goed bedoeld, maar lijkt een kleine stap met forse inbreuk op de privacy

  7. Zijn ze knettergek geworden daar bij Apple. Natuurlijk een geweldig streven om kinder misbruik tegen te gaan. Maar zeggen ze zelf niet altijd dat als je de deur voor één ding open zet, hij altijd openstaat?
    En juist deze week? Nadat blijkt dat duistere regimes via Pegasus software iPhones kunnen ‘ownen’
    Het allerergste vind ik dat het niet eens in de cloud gebeurd, maar op het toestel zelf. Gruwel.

  8. Een ongelooflijke inbreuk op privacy en veiligheid van je informatie. Dezelfde privacy en veiligheid die Apple bij iedere presentatie als Unique Selling Point verkoopt. 🤦🏻‍♂️

  9. Origineel geplaatst door Sander Evers
    Tijd dus om iCloud foto’s uit te schakelen. Heb ik gelijk maar gedaan, en ook al mijn oude foto’s van iCloud afgehaald. Privacy gaat boven alles.

    Origineel geplaatst door Yoran

    Want je hebt foto’s met kinderen?
    Als Apple je foto’s wilde bekijken hadden ze dat allang gedaan hoor

    Ik heb geen foto’s van kinderen. Maar dat is altijd de eerste stap die ze nemen. Straks is het ook voor foto’s die politiek minder welgevallend zijn. Er zijn genoeg redenen om dit niet te willen.

  10. We hoeven hier niet te discussiëren over de noodzaak om kinderen te beschermen, hier zal iedereen het over eens zijn. Waar ik me wel zorgen over maak is de manier waarop Apple haar aandeel in dit streven wil leveren en hoe zich dit verhoudt tot haar eigen policy “Privacy is een fundamenteel mensenrecht. En is daarom ook een van de kernwaarden van Apple”. Feitelijk zegt Apple dat de privacy op jouw telefoon een fundamenteel mensenrecht is, maar dat ze voor de zekerheid toch graag even met je mee kijken. Het feit dat AI verre van feilloos is maakt het extra griezelig. Daarnaast moet je je afvragen of hiermee het hek van de dam is. Gaan ze in de toekomst ook scannen op heel veel andere zaken (geweldsdelicten, wapens, specifiek zoekgedrag op het web, gezondheid en ga zo nog maar even door). Kortom, ik vraag me af of Apple hier goed aan doet.
    De strekking van het artikel op iCulture komt op mij behoorlijk “luchtig” over en steekt schril af tegen de discussies die op diverse plekken gevoerd worden.

  11. Dit is wederom een storm in glas water hoor. Lees dit even na.
    En ook dit komende van MacRumors:

    “As many have pointed out on Twitter, multiple tech companies already do image scanning for CSAM. Google, Twitter, Microsoft, Facebook, and others use image hashing methods to look for and report known images of child abuse.”

    “It’s also worth noting that Apple was already scanning some content for child abuse images prior to the rollout of the new CSAM initiative. In 2020, Apple chief privacy officer Jane Horvath said that Apple used screening technology to look for illegal images and then disables accounts if evidence of CSAM is detected.

    Apple in 2019 updated its privacy policies to note that it would scan uploaded content for “potentially illegal content, including child sexual exploitation material,” so today’s announcements are not entirely new.”

  12. @Frederik: Is het daarom minder zorgwekkend?

  13. Origineel geplaatst door Jan Willem
    Is het daarom minder zorgwekkend @Frederik ?

    Het is alomtegenwoordig, en het gebeurt al jaren met andere big tech (die iedereen sowieso ook al gebruikt). Je kan ook opteren om al je sociale media te wissen, geen smartphone meer te gebruiken, en echt werkelijk alles offline te gaan doen. Veel plezier. 🙂

    Ik lig er inderdaad niet wakker van. Ik ben me bewust van de prijs van permanent online te zijn en dat heb ik er voor over. Het comfort is me meer waard.

  14. Origineel geplaatst door Jan Willem
    Is het daarom minder zorgwekkend @Frederik ?

    Origineel geplaatst door Frederik
    Het is alomtegenwoordig, en het gebeurt al jaren met andere big tech (die iedereen sowieso ook al gebruikt). Je kan ook opteren om al je sociale media te wissen, geen smartphone meer te gebruiken, en echt werkelijk alles offline te gaan doen. Veel plezier. 🙂

    Ik lig er inderdaad niet wakker van. Ik ben me bewust van de prijs van permanent online te zijn en dat heb ik er voor over. Het comfort is me meer waard.

    We wachten even af tot de KI een misser bij deze mijnheer maakt, hij op zwarte lijsten komt te staan, subject van onderzoek wordt, de molen gaat draaien. Of dat iemand via een achterdeur of bug iets in de cloud van deze mijnheer plaats en het hele circus automatisch opstart.

    Geen probleem, want de big tech doet dit toch al lang, dus ach, laat maar gaan of anders gewoon je mond houden en offline gaan. Wetende dat deze scanners complete profielen kunnen maken (ja, ik lees het antwoord al, doen ze niet want ze zijn goed voor ons)

    Het is gigantisch belangrijk dat de discussie op gang komt. Dat snapt deze mijnheer die zijn privacy niet belangrijk vindt en niets te verbergen heeft op zijn laatst als men op basis van zijn data verkeerde conclusies gaat trekken of er andere bugs optreden die niet binnen het automatische proces vallen. Mijnheer? U een verzekering bij ons, sorry hoor. U wilt naar Amerika? Helaas mijnheer, u komt hier niet binnen. Waarom? Kunnen we u niet vertellen. En zo zijn er nog 100 scenario’s.

    Mijn data hoort bij mij en ik kies met wie ik deze deel. Versleuteling behoort een standaard optie te zijn voor een betaald(!) product. Als deze mijnheer er dan voor kiest zijn data te delen, prima.

  15. Origineel geplaatst door Yorick
    Het allerergste vind ik dat het niet eens in de cloud gebeurd, maar op het toestel zelf. Gruwel.

    Waarom is dat het allerergste? Het lijkt me juist goed als het op het toestel zelf gebeurt in plaats van in de cloud. Op je toestel kunnen ze niet naar je foto’s kijken, in de cloud wel. Op je toestel scanden ze de foto’s al lang trouwens, om bijvoorbeeld gezichten en dieren te herkennen zodat die makkelijk vindbaar zijn voor je. Niets van deze data wordt naar Apple gestuurd, in tegenstelling tot veel andere gelijkwaardige toepassingen.

  16. @Frederik: Het probleem hier is dat Apple het op je iPhone controleert: ze gebruiken dus jouw CPU-tijd (en elektriciteitskosten) om het te controleren. Bij Microsoft, Facebook en Google doen ze het serverside. Hoewel ik hier ook geen voorstander van ben, vind ik dat minder indringend omdat ze je privétoestel (hardware) “respecteren”. Wat Apple doet, is gelijkaardig aan een permanente huiszoeking.

  17. @Jaap Couro: Mijnheer, we wachten even rustig af, inderdaad. Vergeet in tussentijd niet dat er nog steeds een manueel review proces aan te pas komt indien je account (al dan niet onterecht) geflagd wordt voor malafide content. Sinds iCloud 2FA gebruikt is er bij mij alvast meer vertrouwen dat mijn data veilig is en dat niet Jan Modaal even wat foute foto’s kan injecteren in mijn account. Maar kijk, iedereen is vrij om al dan niet bij Apple te blijven. Simpel.

    Origineel geplaatst door Piet Paaltjens
    @Frederik: Het probleem hier is dat Apple het op je iPhone controleert: ze gebruiken dus jouw CPU-tijd (en elektriciteitskosten) om het te controleren. Bij Microsoft, Facebook en Google doen ze het serverside. Hoewel ik hier ook geen voorstander van ben, vind ik dat minder indringend omdat ze je privétoestel (hardware) “respecteren”. Wat Apple doet, is gelijkaardig aan een permanente huiszoeking.

    Ik denk niet dat de energiezuinige 16 core neural engine van de A14 Bionic processor met zijn 11 biljoen operaties per seconde daar wakker van ligt. Ik denk ook niet dat wij dat gaan voelen in onze jaarlijkse energiefactuur. 😀 Het is net daarentegen veel indringender dat het bij andere bedrijven server-side gebeurt. Maar als Belg zijnde begrijp ik uiteraard dat deze denkpiste van jou waarschijnlijk toebehoort aan de zuinige ingesteldheid van de Nederlander. Halve euro per jaar besparen aan oplaadkosten en lekker alles server-side bij Google.

  18. (Red.) Link naar de nieuwe FAQ toegevoegd waarin we de belangrijkste vragen beantwoorden en de kritiek op Apple’s maatregelen verder uitlichten.

  19. apple gaat alleen in de cloud scannen , niet wat er op je telefoon staat.

  20. Alles wat op de servers van Apple staat, of te wel in de cloud, is eigendom van Apple. Je hebt die informatie zelf in de cloud gezet. Apple is dus indirect verantwoordelijk voor wat er op zijn servers staat. Als je data op een usb-stick zet of op een CD brand, dan heeft er niemand recht op jou data jij bent dan de enige eigenaar. Dat al die IT bedrijven niks doen met al die data in de cloud is een utopie.

  21. Origineel geplaatst door sander
    apple gaat alleen in de cloud scannen , niet wat er op je telefoon staat.

    Niet correct… Apple gaat op je telefoon scannen….

  22. Heel zorgwekkend, gezien de huidige maatregelen van het inperken van allerlei grondrechten, nu lijkt ook Apple dit verkeerde pad in te slaan. Een slechter moment konden ze niet kiezen. Big Tech is watching you & World Economic Forum. Gaan ze straks ook de critici van wat Apple “normaal” vindt rapporteren? Het wordt tijd om iCloud te minimaliseren en uit te gaan kijken naar een service provider die wel complete privacy garandeert! Heeft iemand een suggestie?

  23. (Red.) De CSAM-functie is een paar maanden uitgesteld.

Reacties zijn gesloten voor dit artikel.