geplaatst door: Robert
https://www.macfreak.nl/modules/news/images/iCloud-icoon.jpg
Hoe groot wordt het team bij Apple dat kinderporno gaat beoordelen?
Deze week werd bekend dat Apple foto’s van Amerikaanse accounts in iCloud gaat scannen op Child Sexual Abuse Material (CSAM) en na een beoordeling door mensen (human review) zal aangeven bij het National Center for Missing & Exploited Children (NCMEC).

Meer details over dit programma vind je vooral in de FAQ die Apple inmiddels hierover op het web heeft gezet. De grote vraag lijkt vooral hoe groot het team is wat Apple voor deze ‘human review’ heeft samengesteld, want de cijfers van bijvoorbeeld Facebook en Google laten zien dat de aantallen die bij dit soort scans naar boven komen beslist niet laag zijn.

https://www.macfreak.nl/modules/news/images/zArt.FAQiPhoneFotosScan-3.jpg
Hoe groot wordt het team bij Apple dat kinderporno gaat beoordelen?


Dat weten we omdat NCMEC die cijfers publiceert, en we daar onder andere kunnen zien hoeveel gevallen de ‘Electronic Service Providers’ rapporteren. Dat is voor Facebook over het jaar 2020 bijvoorbeeld ruim 20 miljoen en voor Google bijna 548 duizend.

Dat er op een sociaal platform veel meer foto’s terecht komen ligt misschien in de lijn der verwachting, maar de cijfers van Google suggereren dat Apple mogelijk ook met honderdduizenden gevallen te maken kan krijgen. Als dat ook meer dan 1.000 gevallen per dag zullen zijn, dan heb je dus een behoorlijk groot team nodig om die ‘human review’ uit te voeren.

En dan hebben we het nog niet eens gehad over het verloop binnen zo’n team, want dag in dag uit kinderporno bekijken laat waarschijnlijk niemand onberoerd.


Klik hier voor informatie over het onder de aandacht brengen van producten of diensten op MacFreak.