
Apple heeft gedreigd om Grok uit de App Store te halen
Een paar maanden geleden kon je
hier op MacFreak al lezen dat drie senatoren in de VS aan Apple en Google vroegen om de app van X te verwijderen. De reden was dat Elon Musks’s AI ‘Grok’ zonder problemen uitgeklede versies van mensen genereerde als dat gevraagd werd.
Musk en Co.
noemen dit zelf humoristisch, de mensen (vooral vrouwen) waar dit tegen misbruikt wordt denken daar natuurlijk heel anders over.

Apple heeft gedreigd om Grok uit de App Store te halen
klik of tap voor een grotere versie
Wat toen niet bekend was is dat Apple Elon Musk's xAI gewaarschuwd heeft dat het de Grok-app uit de App Store zou verwijderen als het bedrijf hier zelf niet iets aan zou doen, omdat ook Apple niet zat te wachten op naakte en geseksualiseerde deepfakes. Apple heeft dat sindsdien laten weten aan de betrokken senatoren, en die brief is inmiddels
in handen van NBC News (betaallink).
In deze brief is te lezen dat Apple een eerste aanpassing van xAI afwees als ontoereikend, met de opmerking dat de “wijzigingen niet ver genoeg gingen”, en liet weten dat er aanvullende aanpassingen nodig waren, anders zou Grok worden verwijderd. Na nog wat heen-en-weer-gepraat kwam Apple uiteindelijk echter tot de conclusie dat een latere versie van de app uiteindelijk voldoende was verbeterd om toch te worden goedgekeurd.
Maar hoewel het aantal door Grok gemaakte en op X geplaatste seksueel getinte deepfakes aanzienlijk lijkt te zijn afgenomen, heeft NBC News ontdekt dat Grok nog steeds in staat is om dit soort beelden te genereren, waarbij sommige gebruikers blijkbaar gewoon hun zoekopdrachten hebben aangepast om de beveiligingsmaatregelen te omzeilen.
Naar aanleiding van de berichtgeving van NBC heeft X de volgende verklaring op het eigen platform gezet.
https://x.com/Safety/status/2044119192765641088De vertaling:
Het is gebruikers ten strengste verboden om expliciete deepfakes te maken zonder toestemming en om onze tools te gebruiken om echte mensen te ontkleden. xAI heeft uitgebreide veiligheidsmaatregelen getroffen om dergelijk misbruik te voorkomen, zoals voortdurende monitoring van het openbare gebruik, realtime analyse van pogingen tot omzeiling, regelmatige modelupdates, snelle filters en aanvullende veiligheidsmaatregelen.
Kennelijk zijn deze “uitgebreide veiligheidsmaatregelen” nog steeds niet voldoende, als iets eenmaal in AI zit ingebakken is het ook altijd erg moeilijk om het er weer helemaal uit te krijgen.