antw: Apple scant foto’s op tekenen van kindermishandeling
12 januari 2020 - 08:08    reactie #25
geplaatst door: boiing
... uiteindelijk moet er toch echt een mens aan te pas komen.

Mee eens, 'uiteindelijk' inderdaad. Die mens is dan iemand van het 'bevoegd gezag' en niet van een tech-bedrijf.

Ons een-tweetje begon echter ergens anders. Na mijn kanttekening in dit draadje om indianenverhalen te voorkomen schets jij een situatie waarbij je in een land zoals de VS met andere 'normen' opgepakt zou kunnen worden met een foto die in NL ok zou zijn. Dat kan dus niet! Want zo werkt dit niet. Het is geen duister algoritme maar een vrij eenvoudige matching-techniek. Jouw foto wordt niet op inhoud zelf gescand, er wordt gekeken of jouw foto een reeds bekende misbruik-foto is. Dat zijn hele verschillende benaderingen waarbij de tweede veel beter verdedigbaar is dan de eerste.

"Since 2008, the National Center for Missing & Exploited Children (NCMEC) has made available a list of hash values for known child sexual abuse images, provided by ISPs, that enables companies to check large volumes of files for matches without those companies themselves having to keep copies of offending images". Zie hier voor een meer technische achtergrond. Hoe gek het ook klinkt, Apple en anderen kunnen dus volhouden dat dit werkt zonder onze privacy aan te tasten.

Het principiële punt blijft: moeten tech-bedrijven aan opsporing doen? Maar dat is een andere discussie.


edit: link aangepast, kleine aanvulling
antw: Apple scant foto’s op tekenen van kindermishandeling
12 januari 2020 - 21:13    reactie #26
geplaatst door: Jurriaan
Zeker, en ik kom hier op terug. Er staat in dat stuk inderdaad niet dat Apple ook deze techniek gebruikt, het is alleen waarschijnlijk of vergelijkbaar. Het zou de omgekeerde wereld zijn om te denken dat Apple nog veel verder gaat dan de PhotoDNA techniek van MS en wél mensen naar jouw iCloud foto's laat kijken! Dan kunnen ze morgen opdoeken..

Een beetje logisch nadenken, en ik weet zeker dat Apple hier nog wel wat uitleg over geeft de komende tijd  :smile:.

Daar is het nu inderdaad wachten op. Op de reactie van Apple.

(Ik kende de door MS toegepast software nog iet. Dat die dus in staat is een foto te scannen aan de hand van de handtekening van de foto. Of dit geruststellend is? Ik ga mee met boiing, het is niet juridisch onderbouwt dus zo ie zo niet doen. Blijft de vrees dat het wel juridisch onderbouwt zou kunnen gaan worden En het dus toelaatbaar wordt. Het grootste gevaar voor de mens is de mens zelf. Het nadeel van internet en digitale fotografie bewijst zich ook hier).
MBA '20 M1| SE1 & 2 iOS 15/17 | Mini6 iPadOS 17 | ATV 4K MKI  TVOS17|
antw: Apple scant foto’s op tekenen van kindermishandeling
13 januari 2020 - 01:00    reactie #27
geplaatst door: MacMiep
Dus Apple zou dan niet controleren op nieuw materiaal... alleen op al bekende misbruik foto's of delen daarvan.
Dan zet het denk ik weinig zoden aan de dijk. Een beetje pedo zet het niet onversleutelt in de cloud, zou je denken...

NB: Bellingcat heeft een project waarbij ze proberen om aan de hand van de achtergrond van foto's de locatie te bepalen waar die genomen zijn. Dat gaat met vrijwilligers en werkt uitstekend, gezien hun prima analyse van de Iran ramp.
Al meer dan 20 jaar beheert Miep de MacMiepMacCursus op macmiep.nl & op macostutorial.com in het Engels èn Duits!
antw: Apple scant foto’s op tekenen van kindermishandeling
13 januari 2020 - 13:15    reactie #28
geplaatst door: Alvinus
Ik heb nog een voorbeeld van Amerikaanse paranoia t.a.v. kindermisbruik. Een Nederlandse man, getrouwd in de U.S.A., twee dochtertjes. Het huwelijk loopt mis, de vrouw beschuldigt hem van seksueel misbruik (met de kindertjes in bad gezeten, waarschijnlijk). Man wordt veroordeeld en zit anderhalf jaar in de gevangenis, waarna hij wordt uitgewezen. Tijdens de rechtszaak komen foto's tevoorschijn die de beschuldiging van het misbruik verder ondersteunen: de dochtertjes zijn met opa en oma op vakantie in Vlieland en rennen in hun blootje rond. 'It runs in the family, your honour!' Uiteraard mogen de vader en zijn ouders de kinderen nooit meer zien, wat natuurlijk de bedoeling was van de ex-vrouw.
Tot zover het voorbeeld (uit mijn nabijheid, maar zonder link). Natuurlijk stelt Boiing ons hierboven gerust, maar ik wijs slechts op de verschrikkelijke gevolgen die volkomen onschuldige foto's kunnen hebben als ze kundig worden ingelijst in een vals frame.
antw: Apple scant foto’s op tekenen van kindermishandeling
13 januari 2020 - 17:20    reactie #29
geplaatst door: boiing
... ik wijs slechts op de verschrikkelijke gevolgen die volkomen onschuldige foto's kunnen hebben als ze kundig worden ingelijst in een vals frame.

Absoluut, afschuwelijk als dat je overkomt. Net als eerder genoemde scenario's in dit draadje. Daarom is het ook zo belangrijk om deze ontwikkelingen goed te blijven volgen zodat dit:

Dus Apple zou dan niet controleren op nieuw materiaal... alleen op al bekende misbruik foto's of delen daarvan.

..niet langzaam een stapje verder gaat. Blijven opletten en kijk af en toe ook eens hier :wink::

https://www.bitsoffreedom.nl
antw: Apple scant foto’s op tekenen van kindermishandeling
13 januari 2020 - 21:07    reactie #30
geplaatst door: MacMiep
https://www.bitsoffreedom.nl doet goed werk. Veel mensen boeit het niet, maar de gevolgen van alles online pleuren kunnen groot zijn.
Al meer dan 20 jaar beheert Miep de MacMiepMacCursus op macmiep.nl & op macostutorial.com in het Engels èn Duits!
Apple scant foto’s op tekenen van kindermishandeling
6 augustus 2021 - 00:58    reactie #31
geplaatst door: boiing
Zeker, en ik kom hier op terug.
Het duurde even maar bij deze:

Citaat
Later this year, Apple will roll out a technology that will allow the company to detect and report known child sexual abuse material to law enforcement in a way it says will preserve user privacy.
https://techcrunch.com/2021/08/05/apple-icloud-photos-scanning

Het werkt precies zoals ik eerder beschreef, en Apple kan niet je foto's bekijken. Buiten dat en het feit dat het doel nobel is zitten hier ook meerdere haken en ogen aan. Privacy minded Apple creëert hiermee toch een beetje zijn eigen '1984'..

(kanttekeningen)