Our Commitment to Child SafetyApple is dedicated to protecting children throughout our ecosystem wherever our products are used, and we continue to support innovation in this space. We have developed robust protections at all levels of our software platform and throughout our supply chain. As part of this commitment, Apple uses image matching technology to help find and report child exploitation. Much like spam filters in email, our systems use electronic signatures to find suspected child exploitation. We validate each match with individual review. Accounts with child exploitation content violate our terms and conditions of service, and any accounts we find with this material will be disabled.
geblokkeerd
@HEXDIY: En ik maar denken dat jij juist het tegenovergestelde bent van een luddiet.
Maar je vraagt om een voorbeeldje, hier dan een van alweer heel wat jaartjes terug toen je bij de Hema nog je fotorolletje in een half uurtje kon laten ontwikkelen.Een vader had wat fotootjes gemaakt van zijn twee blote peutertjes tijdens een dagje naar het strand en liet het rolletje bij de Hema ontwikkelen. Na een half uurtje ging hij de afdrukjes ophalen en werd daar opgewacht door twee rechercheurs van de zedenpolitie.
Alsof Apple haar screeningssoftware heilig is en exact kan onderscheiden wat mishandeling/ kinderporno is. ... Zit je samen in bad maak je een foto omdat je samen speelt met schuim, de grootste lol en dan belt de politie aan...
Je krijgt dus dit: ik maak zo'n blote kinderfoto, pleur 'm in iCloud, welke op de servers in de VS draait... en dan komt er een algoritme van Apple overheen en die pikt die eruit en dan?
Uiteindelijk zal er een mens naar die foto's moeten kijken.