Wij zijn huidige en voormalige werknemers van grensverleggende AI-bedrijven en we geloven in het potentieel van AI-technologie om de mensheid ongekende voordelen te bieden.We begrijpen ook de ernstige risico's die deze technologieën met zich meebrengen. Deze risico's variëren van de verdere verankering van bestaande ongelijkheden, tot manipulatie en verkeerde informatie, tot het verlies van controle over autonome AI-systemen die mogelijk kunnen leiden tot het uitsterven van de mens. AI-bedrijven zelf hebben deze risico's erkend [1, 2, 3], net als overheden over de hele wereld [4, 5, 6] en andere AI-experts [7, 8, 9].We hebben goede hoop dat deze risico's adequaat kunnen worden beperkt met voldoende begeleiding vanuit de wetenschappelijke gemeenschap, beleidsmakers en het publiek. AI-bedrijven hebben echter sterke financiële prikkels om effectief toezicht te vermijden en we geloven niet dat aangepaste structuren van corporate governance voldoende zijn om dit te veranderen.AI-bedrijven beschikken over aanzienlijke niet-openbare informatie over de mogelijkheden en beperkingen van hun systemen, de toereikendheid van hun beschermingsmaatregelen en de risiconiveaus van verschillende soorten schade. Nu hebben ze echter slechts zwakke verplichtingen om een deel van deze informatie te delen met overheden en geen enkele met het maatschappelijk middenveld. We denken niet dat ze deze informatie allemaal vrijwillig zullen delen.Zolang er geen effectief overheidstoezicht is op deze bedrijven, behoren huidige en voormalige werknemers tot de weinige mensen die hen verantwoordelijk kunnen houden tegenover het publiek. Toch weerhouden brede geheimhoudingsovereenkomsten ons ervan om onze zorgen te uiten, behalve tegenover de bedrijven die er mogelijk niet in slagen om deze problemen aan te pakken. Gewone klokkenluiderbescherming is onvoldoende omdat ze gericht zijn op illegale activiteiten, terwijl veel van de risico's waarover we ons zorgen maken nog niet gereguleerd zijn. Sommigen van ons vrezen redelijkerwijs verschillende vormen van vergelding, gezien de geschiedenis van dergelijke zaken in de hele sector. We zijn niet de eersten die deze problemen tegenkomen of erover spreken.We doen daarom een beroep op geavanceerde AI-bedrijven om zich aan deze principes te committeren:Dat het bedrijf geen overeenkomsten aangaat of afdwingt die “afvallen” of kritiek op het bedrijf verbieden vanwege risicogerelateerde zorgen, noch represailles neemt voor risicogerelateerde kritiek door het belemmeren van een verworven economisch voordeel;Dat het bedrijf een verifieerbaar anoniem proces zal faciliteren voor huidige en voormalige werknemers om risicogerelateerde zorgen te uiten aan de raad van bestuur van het bedrijf, aan toezichthouders en aan een geschikte onafhankelijke organisatie met relevante expertise;Dat het bedrijf een cultuur van open kritiek zal ondersteunen en zijn huidige en voormalige werknemers zal toestaan om risicogerelateerde zorgen over zijn technologieën aan de orde te stellen bij het publiek, de raad van bestuur van het bedrijf, regelgevende instanties of een geschikte onafhankelijke organisatie met relevante expertise, zolang handelsgeheimen en andere intellectuele eigendomsbelangen op gepaste wijze worden beschermd;Dat het bedrijf geen represailles zal nemen tegen huidige en voormalige werknemers die publiekelijk risicogerelateerde vertrouwelijke informatie delen nadat andere processen hebben gefaald. We accepteren dat bij elke poging om risicogerelateerde zorgen te melden, het onnodig vrijgeven van vertrouwelijke informatie moet worden vermeden. Daarom accepteren we dat, zodra er een adequate procedure bestaat voor het anoniem melden van zorgen aan de raad van bestuur van het bedrijf, aan toezichthouders en aan een geschikte onafhankelijke organisatie met relevante expertise, zorgen in eerste instantie via een dergelijke procedure worden gemeld. Zolang een dergelijke procedure echter niet bestaat, moeten huidige en voormalige werknemers de vrijheid behouden om hun zorgen openbaar te maken.
Hierin uiten ze niet alleen hun zorgen, maar stellen ze ook een aantal richtlijnen voor, zodat zorgen makkelijker en in veiligheid geuit zouden kunnen worden.
De mens dient tegen zichzelf beschermt te worden.
As one example he predicts a 2009 computer will be a tablet or smaller sized device with a high quality but somewhat conventional display, while in 2019 computers are "largely invisible" and images are mostly projected directly into the retina, and by 2029 he predicts computers will communicate through direct neural pathways.
Nu afwachten tot Cyberdyne Systems actief wordt met AI en Skynet online gooit.
I'm sorry, Dave. I'm afraid I can't do that.
Die tijdmachine is al bijna af!
Ik vraag mij toch af hoe ze Arnold artificieel inteligent gaan maken met Apple II assembly code voor een 6502 processor uit 1975 ?