Makers van AI waarschuwen voor AI
5 juni 2024 - 10:31   
geplaatst door: Robert
https://www.macfreak.nl/modules/news/images/ArtificialIntelligence-icoon.jpg
Makers van AI waarschuwen voor AI
Kunstmatige intelligentie (AI) is duidelijk in een stroomversnelling gekomen, het is het nieuwe toverwoord in Silicon Valley. Veel van wat we nu onder die noemer geschaard zien zijn algoritmes die gecombineerd gebruikt worden, terwijl er ook hard aan echte AI gewerkt wordt.

De angst bestaat dat dit laatste onbeheersbaar zou kunnen worden, want bij de huidige algoritmes ontbreekt soms al het broodnodige overzicht en inzicht.

https://www.macfreak.nl/modules/news/images/zArt.ArtificlialIntelligenceWallpaper.jpg
Makers van AI waarschuwen voor AI


Neem bijvoorbeeld het recente onderzoek van het Massachusetts Institute of Technology (MIT) waarin werd geconstateerd dat AI-systemen nu al mensen kunnen bedriegen, zelfs als ze getraind zijn om geen desinformatie te verstrekken of getest worden op betrouwbaarheid.

Voor een aantal mensen die in dit veld werkzaam waren, of dat nu nog zijn, reden om een open brief over AI te publiceren. Hierin uiten ze niet alleen hun zorgen, maar stellen ze ook een aantal richtlijnen voor, zodat zorgen makkelijker en in veiligheid geuit zouden kunnen worden.

Hieronder de vertaling, die (ironisch genoeg) natuurlijk ook met AI tot stand kwam:


Citaat
Wij zijn huidige en voormalige werknemers van grensverleggende AI-bedrijven en we geloven in het potentieel van AI-technologie om de mensheid ongekende voordelen te bieden.

We begrijpen ook de ernstige risico's die deze technologieën met zich meebrengen. Deze risico's variëren van de verdere verankering van bestaande ongelijkheden, tot manipulatie en verkeerde informatie, tot het verlies van controle over autonome AI-systemen die mogelijk kunnen leiden tot het uitsterven van de mens. AI-bedrijven zelf hebben deze risico's erkend [1, 2, 3], net als overheden over de hele wereld [4, 5, 6] en andere AI-experts [7, 8, 9].

We hebben goede hoop dat deze risico's adequaat kunnen worden beperkt met voldoende begeleiding vanuit de wetenschappelijke gemeenschap, beleidsmakers en het publiek. AI-bedrijven hebben echter sterke financiële prikkels om effectief toezicht te vermijden en we geloven niet dat aangepaste structuren van corporate governance voldoende zijn om dit te veranderen.

AI-bedrijven beschikken over aanzienlijke niet-openbare informatie over de mogelijkheden en beperkingen van hun systemen, de toereikendheid van hun beschermingsmaatregelen en de risiconiveaus van verschillende soorten schade. Nu hebben ze echter slechts zwakke verplichtingen om een deel van deze informatie te delen met overheden en geen enkele met het maatschappelijk middenveld. We denken niet dat ze deze informatie allemaal vrijwillig zullen delen.

Zolang er geen effectief overheidstoezicht is op deze bedrijven, behoren huidige en voormalige werknemers tot de weinige mensen die hen verantwoordelijk kunnen houden tegenover het publiek. Toch weerhouden brede geheimhoudingsovereenkomsten ons ervan om onze zorgen te uiten, behalve tegenover de bedrijven die er mogelijk niet in slagen om deze problemen aan te pakken. Gewone klokkenluiderbescherming is onvoldoende omdat ze gericht zijn op illegale activiteiten, terwijl veel van de risico's waarover we ons zorgen maken nog niet gereguleerd zijn. Sommigen van ons vrezen redelijkerwijs verschillende vormen van vergelding, gezien de geschiedenis van dergelijke zaken in de hele sector. We zijn niet de eersten die deze problemen tegenkomen of erover spreken.

We doen daarom een beroep op geavanceerde AI-bedrijven om zich aan deze principes te committeren:

  • Dat het bedrijf geen overeenkomsten aangaat of afdwingt die “afvallen” of kritiek op het bedrijf verbieden vanwege risicogerelateerde zorgen, noch represailles neemt voor risicogerelateerde kritiek door het belemmeren van een verworven economisch voordeel;
  • Dat het bedrijf een verifieerbaar anoniem proces zal faciliteren voor huidige en voormalige werknemers om risicogerelateerde zorgen te uiten aan de raad van bestuur van het bedrijf, aan toezichthouders en aan een geschikte onafhankelijke organisatie met relevante expertise;
  • Dat het bedrijf een cultuur van open kritiek zal ondersteunen en zijn huidige en voormalige werknemers zal toestaan om risicogerelateerde zorgen over zijn technologieën aan de orde te stellen bij het publiek, de raad van bestuur van het bedrijf, regelgevende instanties of een geschikte onafhankelijke organisatie met relevante expertise, zolang handelsgeheimen en andere intellectuele eigendomsbelangen op gepaste wijze worden beschermd;
  • Dat het bedrijf geen represailles zal nemen tegen huidige en voormalige werknemers die publiekelijk risicogerelateerde vertrouwelijke informatie delen nadat andere processen hebben gefaald. We accepteren dat bij elke poging om risicogerelateerde zorgen te melden, het onnodig vrijgeven van vertrouwelijke informatie moet worden vermeden. Daarom accepteren we dat, zodra er een adequate procedure bestaat voor het anoniem melden van zorgen aan de raad van bestuur van het bedrijf, aan toezichthouders en aan een geschikte onafhankelijke organisatie met relevante expertise, zorgen in eerste instantie via een dergelijke procedure worden gemeld. Zolang een dergelijke procedure echter niet bestaat, moeten huidige en voormalige werknemers de vrijheid behouden om hun zorgen openbaar te maken.


Klik hier voor informatie over het onder de aandacht brengen van producten of diensten op MacFreak.
Makers van AI waarschuwen voor AI
5 juni 2024 - 17:10    reactie #1
geplaatst door: Jurriaan
De mens dient tegen zichzelf beschermt te worden. Dat was en en is zo.
Gaat voorlopig niet gebeuren, totdat blijkt dat AI wel heel veel 'macht' heeft en dan komen er wettelijke regels. Als het kalf dan al niet verdronken is..
MBA '20 M1| SE1 & 2 iOS 15/18 | Mini6 iPadOS 18 | ATV 4K MKI  TVOS18|
Makers van AI waarschuwen voor AI
5 juni 2024 - 17:51    reactie #2
geplaatst door: puk1980
Hierin uiten ze niet alleen hun zorgen, maar stellen ze ook een aantal richtlijnen voor, zodat zorgen makkelijker en in veiligheid geuit zouden kunnen worden.
Die regels hadden we toch al lang? :smile:
Makers van AI waarschuwen voor AI
5 juni 2024 - 17:52    reactie #3
geplaatst door: boiing
De mens dient tegen zichzelf beschermt te worden.
Het is niet dat we het niet zagen aankomen, dit las ik 25 jaar geleden al:

https://en.wikipedia.org/wiki/The_Age_of_Spiritual_Machines

Citaat
As one example he predicts a 2009 computer will be a tablet or smaller sized device with a high quality but somewhat conventional display, while in 2019 computers are "largely invisible" and images are mostly projected directly into the retina, and by 2029 he predicts computers will communicate through direct neural pathways.
iPad (2010), VR brillen (ok, nog niet helemaal qua retina projectie) en Musk's Neuralink (goed op weg..).
The amount of energy needed to refute bullshit is an order of magnitude bigger than that needed to produce it (Brandolini's Law)
Makers van AI waarschuwen voor AI
5 juni 2024 - 19:37    reactie #4
geplaatst door: anraadts
Waarbij de vraag zich opdringt of Elon Musk's Neuralink ook bestaan had als Ray Kurzweil die niet voorspeld had.

Maar hij zat er niet ver naast met het jaar van de lancering van de iPad.  :thumbs-up:
Makers van AI waarschuwen voor AI
5 juni 2024 - 20:36    reactie #5
geplaatst door: boiing
Ja, goeie vraag. Visionairs zoals Musk of Jobs zullen vast deels geïnspireerd zijn door wat ze in hun leven gelezen hebben van andere visionairs. Uiteindelijk zijn zij het wel die de voorspellingen ook werkelijkheid maken. Ik hoop dat er van beide soorten nog vele mogen volgen :wink:
The amount of energy needed to refute bullshit is an order of magnitude bigger than that needed to produce it (Brandolini's Law)
Makers van AI waarschuwen voor AI
5 juni 2024 - 21:38    reactie #6
geplaatst door: Pat_P
Nu afwachten tot Cyberdyne Systems actief wordt met AI en Skynet online gooit.  :thumbs-up:
Makers van AI waarschuwen voor AI
6 juni 2024 - 16:33    reactie #7
geplaatst door: eoms
Had Chriet Titulaer daar ook niet eens een aflevering over?
Makers van AI waarschuwen voor AI
6 juni 2024 - 21:48    reactie #8
geplaatst door: MacFrankie
Die had in ieder geval het internet en het shoppen via internet voorspeld!
Op mijn werk heb ik al Windows, thuis wil ik geen systeembeheerder meer zijn!
Makers van AI waarschuwen voor AI
7 juni 2024 - 09:45    reactie #9
geplaatst door: Appelflap
Nu afwachten tot Cyberdyne Systems actief wordt met AI en Skynet online gooit.  :thumbs-up:
Dan zal Cyberdyne Systems er toch snel werk van moeten maken, want nadat ze online zijn moeten ze ook nog een tijdmachine ontwikkelen om Arnold over 5 jaar terug in de tijd te sturen naar 1984.
Makers van AI waarschuwen voor AI
7 juni 2024 - 09:59    reactie #10
geplaatst door: MacFrankie
Die tijdmachine is al bijna af!

Op mijn werk heb ik al Windows, thuis wil ik geen systeembeheerder meer zijn!
Makers van AI waarschuwen voor AI
7 juni 2024 - 10:40    reactie #11
geplaatst door: nnsa
Nakomelingen van Ava zijn volwassen geworden…

IMG_2289.jpeg Makers van AI waarschuwen voor AI
Ⓒnnsa(i)-2025
Makers van AI waarschuwen voor AI
7 juni 2024 - 11:13    reactie #13
geplaatst door: Appelflap
Die tijdmachine is al bijna af!



Ik vraag mij toch af hoe ze Arnold artificieel inteligent gaan maken met Apple II assembly code voor een 6502 processor uit 1975 ?
(de code die gezien wordt door Arnold)
Makers van AI waarschuwen voor AI
7 juni 2024 - 19:33    reactie #14
geplaatst door: mcmt
Ik vraag mij toch af hoe ze Arnold artificieel inteligent gaan maken met Apple II assembly code voor een 6502 processor uit 1975 ?
Een scene in de Terminator film gebruikt zelfs COBOL test code om 1 t/m 1000 op te tellen. Overigens kon Eliza (Joseph Weizenbaum, 1966), wellicht de eerste chatbot, draaien op een Apple ][. 



Makers van AI waarschuwen voor AI
10 juni 2024 - 09:53    reactie #15
geplaatst door: anraadts
@mcmt: dank voor die video, erg leuk en vooral erg informatief!  :thumbs-up:
Makers van AI waarschuwen voor AI
28 augustus 2024 - 20:08    reactie #17
geplaatst door: jaco123
Interessante link, dank je puk1980!