geplaatst door: Robert
https://www.macfreak.nl/modules/news/images/iOS15-icoon.jpg
Kinderen beter beschermd in iOS 15.2, geen kinderporno-scan
In de tweede beta-versie van iOS 15.2 vind je extra functies om kinderen te beschermen tegen ongewenste naaktbeelden, maar dit is niet de scan voor Child Sexual Abuse Material (CSAM), oftewel kinderporno, die eerder in het nieuws was. En deze nieuwe functie in iOS 15.2 staat standaard uit.

Bij Apple zouden ze trouwens ook nog steeds van plan zijn om het scannen voor kinderporno uit te rollen, wanneer dat gaat gebeuren is niet bekend. Wat er nu in iOS 15.2 is ingebouwd is een onderdeel van Delen met gezin, en wordt alleen actief als het door ouders wordt aangezet. Eenmaal aangezet kan de Berichten-app naaktbeelden herkennen die kinderen proberen te versturen of ontvangen.

https://www.macfreak.nl/modules/news/images/zArt.iOS15.2CommunicationSafety.jpg
Kinderen beter beschermd in iOS 15.2, geen kinderporno-scan

klik op de afbeeldingen voor een grotere versie

Bij het ontvangen wordt de foto automatisch onscherp gemaakt en krijgt het kind een link aangeboden met hulp hoe hiermee om te gaan. Daarbij is er ook een optie om de foto toch te bekijken (iets wat ieder nieuwsgierig kind waarschijnlijk zal doen).

Toen Apple in een eerdere fase kwam met dit soort opties was deze optie er ook al bij, maar daarbij was er een automatische notificatie voor de ouder(s) ingebouwd voor kinderen tot en met twaalf jaar. Daar kwam veel kritiek op, omdat het kinderen in situaties waarbij al sprake is van geweld of misbruik nog verder in gevaar kan brengen. Die optie is nu dus verwijderd, er worden geen notificaties meer verstuurd.

Het scannen voor naaktbeelden gebeurt op het device zelf, en heeft geen invloed op de versleuteling van de berichten. Er gaat ook geen data over het ontdekken van naaktbeelden het device uit, Apple heeft er ook geen toegang.

https://www.macfreak.nl/modules/news/images/zArt.iCloudKinderpornoScan-2.jpg
Kinderen beter beschermd in iOS 15.2, geen kinderporno-scan




 #iOS
Klik hier voor informatie over het onder de aandacht brengen van producten of diensten op MacFreak.
Kinderen beter beschermd in iOS 15.2, geen kinderporno-scan
10 november 2021 - 12:20    reactie #1
geplaatst door: sluisje

geblokkeerd

Het lijkt erop dat Apple heel graag de te gebruiken algoritmes 'in het veld' wil testen. Nu het plan om te scannen op kinderporno voorlopig van de baan is moet de antiporno-afdeling immers toch wat om handen hebben.
Daarom deze nieuwe functie waarmee het herkennen van 'naakt' kan worden getest.
Wel vind ik het jammer dat de zo gevonden foto toch nog bekeken kan worden. Met het oog op bescherming, klimaat en duurzaamheid is het beter dat niemand nog naakt te zien krijgt in zijn/haar/hun aardse bestaan.
Kinderen beter beschermd in iOS 15.2, geen kinderporno-scan
10 november 2021 - 17:26    reactie #2
geplaatst door: DirtyMay
@ sluisje

Wat de blote context van deze wereld betreft :
Er zijn uitersten, en veel grijze blote zones daar tussenin.

Helaas.
Kinderen beter beschermd in iOS 15.2, geen kinderporno-scan
11 november 2021 - 10:12    reactie #3
geplaatst door: MacThijss
Helaas, Apple laat hier zien dat het een echt Amerikaans bedrijf is. Doodsbang voor naakt/bloot (en daarmee zou je kunnen zeggen van intimiteit en menselijk contact) terwijl wapens en geweld onbeperkt toegang wordt gegeven. Ik mis de balans.
Kinderen beter beschermd in iOS 15.2, geen kinderporno-scan
11 november 2021 - 10:33    reactie #4
geplaatst door: DirtyMay
Zeer terechte observatie.

Evenwel met die bedenking dat Apple
nog niet te veel dodelijk wapens verkoopt.

Alhoewel, de combinatie van een
Facebook-account met een smartphone ...

Je kan er iemand mee doodpesten.