
Open brief roept op tot pauze in ontwikkeling AI
Dat de ontwikkeling van
AI op dit moment razendsnel gaat en in een stroomversnelling zit is waarschijnlijk iedereen duidelijk. En dat deze snelle ontwikkeling erg grote maatschappelijke consequenties zal gaan hebben lijkt op dit moment ook als een paal boven water te staan.
Reden genoeg voor een groot aantal mensen met invloed om een open brief te schrijven waarin opgeroepen wordt om een pauze van minimaal 6 maanden te nemen met het ontwikkelen van systemen die nog krachtiger zijn dan GPT-4, zodat er eerst goed nagedacht kan worden over de ver rijkende consequenties van AI. Onder de ondertekenaars zijn natuurlijk ook een aantal prominenten, waaronder Steve Wozniak, de man die samen met Steve Jobs aan de wieg van Apple stond.

Open brief roept op tot pauze in ontwikkeling AI
De open brief is, zeer toepasselijk, gepubliceerd op de website
futureoflife.org, en te vinden op
deze pagina.
Hieronder de Nederlandse vertaling:
AI-systemen met menselijke concurrerende intelligentie kunnen grote risico's inhouden voor de samenleving en de mensheid, zoals blijkt uit uitgebreid onderzoek[1] en wordt erkend door de beste AI-laboratoria.[2] Zoals gesteld in de algemeen onderschreven Asilomar AI Principles, zou geavanceerde AI een ingrijpende verandering kunnen betekenen in de geschiedenis van het leven op aarde, en zou deze met gepaste zorg en middelen moeten worden gepland en beheerd. Helaas gebeurt dit niveau van planning en beheer niet, ook al zijn AI-laboratoria de afgelopen maanden verwikkeld geraakt in een uit de hand gelopen race om steeds krachtiger digitale breinen te ontwikkelen en in te zetten die niemand - zelfs hun makers niet - kan begrijpen, voorspellen of betrouwbaar controleren.
Hedendaagse AI-systemen worden nu menselijk concurrerend in algemene taken,[3] en we moeten ons afvragen: Moeten we machines onze informatiekanalen laten overspoelen met propaganda en onwaarheid? Moeten we alle banen automatiseren? Moeten we niet-menselijke geesten ontwikkelen die ons uiteindelijk in aantal overtreffen, te slim af zijn, verouderen en vervangen? Moeten we het risico lopen de controle over onze beschaving te verliezen? Dergelijke beslissingen mogen niet worden gedelegeerd aan ongekozen technische leiders. Krachtige AI-systemen mogen pas worden ontwikkeld als we ervan overtuigd zijn dat hun effecten positief zullen zijn en hun risico's beheersbaar. Dit vertrouwen moet goed onderbouwd zijn en toenemen met de omvang van de potentiële effecten van een systeem. In de recente verklaring van OpenAI over kunstmatige algemene intelligentie staat: ”Op een gegeven moment kan het belangrijk zijn om een onafhankelijke beoordeling te krijgen voordat wordt begonnen met het trainen van toekomstige systemen, en voor de meest geavanceerde inspanningen om overeen te komen om de groeisnelheid van de computer die wordt gebruikt voor het creëren van nieuwe modellen te beperken.” Wij zijn het daarmee eens. Dat punt is nu aangebroken.
Daarom roepen wij alle AI-laboratoria op om de training van AI-systemen die krachtiger zijn dan GPT-4 onmiddellijk voor minstens 6 maanden te onderbreken. Deze pauze moet openbaar en controleerbaar zijn en alle belangrijke actoren omvatten. Als een dergelijke pauze niet snel kan worden ingevoerd, moeten regeringen ingrijpen en een moratorium instellen.
AI-laboratoria en onafhankelijke deskundigen moeten deze pauze gebruiken om gezamenlijk een reeks gemeenschappelijke veiligheidsprotocollen voor het ontwerp en de ontwikkeling van geavanceerde AI te ontwikkelen en toe te passen, die streng worden gecontroleerd door onafhankelijke externe deskundigen. Deze protocollen moeten ervoor zorgen dat systemen die zich eraan houden zonder enige twijfel veilig zijn.[4] Dit betekent geen pauze in de ontwikkeling van AI in het algemeen, maar slechts een stap terug van de gevaarlijke wedloop naar steeds grotere onvoorspelbare black-box-modellen met steeds verder toenemende capaciteiten.
AI-onderzoek en -ontwikkeling moeten zich opnieuw richten op het nauwkeuriger, veiliger, begrijpelijker, transparanter, robuuster, beter op elkaar afgestemd, betrouwbaarder en loyaler maken van de huidige krachtige, geavanceerde systemen.
Tegelijkertijd moeten AI-ontwikkelaars samenwerken met beleidsmakers om de ontwikkeling van robuuste AI-governancesystemen drastisch te versnellen. Deze moeten ten minste omvatten: nieuwe en bekwame regelgevingsinstanties voor AI; toezicht op en tracering van geavanceerde AI-systemen en grote rekencapaciteit; herkomst- en watermerksystemen om echt van synthetisch te kunnen onderscheiden en modellekken op te sporen; een robuust audit- en certificatie-ecosysteem; aansprakelijkheid voor door AI veroorzaakte schade; robuuste overheidsfinanciering voor technisch AI-veiligheidsonderzoek; en goed toegeruste instellingen om de dramatische economische en politieke verstoringen (met name van de democratie) die AI zal veroorzaken, het hoofd te kunnen bieden.
De mensheid kan een bloeiende toekomst tegemoet gaan met AI. Nu we erin geslaagd zijn krachtige AI-systemen te creëren, kunnen we genieten van een "AI-zomer" waarin we de vruchten plukken, deze systemen zodanig ontwikkelen dat iedereen er baat bij heeft en de samenleving de kans krijgt zich aan te passen. De samenleving heeft andere technologieën met potentieel catastrofale gevolgen voor de samenleving op pauze gezet.[5] Dat kunnen we hier ook doen. Laten we genieten van een lange AI-zomer en ons niet onvoorbereid in de herfst storten.
Eén opmerking bij de vertaling: die laatste zin in het Engels is “Let's enjoy a long AI summer, not rush unprepared into a fall.” Fall kan worden vertaald als ‘herfst’, maar ook al ‘val’, deze woordspeling bestaat jammer genoeg in het Nederlands niet.