Kunstmatige intelligentie ontwikkelt zich sneller dan de regels die haar moeten sturen. Terwijl technologiebedrijven elkaar opjagen in een wereldwijde AI-wedloop en honderden miljarden investeren in steeds krachtigere systemen, groeit tegelijk het besef dat deze technologie de structuur van onze samenleving kan veranderen.
De vraag is daarom niet alleen wat AI kan, maar ook wie er controle over heeft.
Recent hebben honderden wetenschappers, AI-onderzoekers, voormalige overheidsfunctionarissen en publieke denkers uit verschillende landen een verklaring ondertekend waarin een raamwerk wordt geschetst voor verantwoorde ontwikkeling van AI. Het document begint met een nuchtere constatering: de mensheid staat op een kruispunt.
De ene weg leidt naar een wereld waarin AI-systemen steeds meer menselijke rollen overnemen — eerst als werknemers, daarna als besluitvormers — terwijl macht zich concentreert bij een klein aantal bedrijven en instituties die nauwelijks democratisch gecontroleerd worden.
De andere weg leidt naar een toekomst waarin AI juist menselijke mogelijkheden enorm vergroot: technologie die ons helpt betere beslissingen te nemen, complexe problemen op te lossen en nieuwe vormen van creativiteit en samenwerking mogelijk te maken.
Om te voorkomen dat AI een systeem wordt dat mensen vervangt in plaats van ondersteunt, formuleren de auteurs van de verklaring vijf fundamentele principes.
Vijf pijlers voor verantwoorde AI
Het voorgestelde raamwerk rust op vijf brede uitgangspunten:
• De mens blijft in controle
AI moet menselijke besluitvorming ondersteunen, niet vervangen. Cruciale maatschappelijke keuzes mogen nooit volledig worden overgelaten aan autonome systemen.
• Voorkom concentratie van macht
De ontwikkeling van krachtige AI-systemen mag niet in handen komen van een klein aantal bedrijven of instituties. Democratische controle en transparantie zijn noodzakelijk.
• Bescherm de menselijke ervaring
AI mag menselijke relaties, identiteit en psychologisch welzijn niet ondermijnen. Technologie moet het menselijk leven verrijken, niet vervangen.
• Bescherm individuele vrijheid
AI-systemen mogen niet worden ingezet om burgers op grote schaal te manipuleren, te controleren of hun autonomie te beperken.
• Juridische verantwoordelijkheid voor AI-bedrijven
Bedrijven die AI-systemen ontwikkelen en op de markt brengen moeten aansprakelijk zijn voor de maatschappelijke gevolgen daarvan.
Van principes naar concrete regels
Deze uitgangspunten blijven niet op het niveau van abstracte waarden. Het document doet ook een aantal concrete voorstellen voor regelgeving.
Onder meer wordt voorgesteld:
• een tijdelijke stop op de ontwikkeling van superintelligente AI totdat wetenschappelijk consensus bestaat dat dit veilig kan en er democratische steun voor is;
• verplichte uitschakelmechanismen (“off-switches”) voor krachtige AI-systemen;
• een verbod op AI-architecturen die zichzelf kunnen repliceren, autonoom verbeteren of uitschakeling kunnen verhinderen;
• verplichte veiligheidstesten voordat AI-systemen op de markt worden gebracht.
Dat laatste voorstel is misschien wel het belangrijkste.
Een vergelijking die iedereen begrijpt
Voorstanders van dit raamwerk gebruiken vaak een vergelijking die vrijwel iedereen intuïtief begrijpt: de farmaceutische industrie.
Wanneer een farmaceutisch bedrijf een nieuw medicijn ontwikkelt, mag dat middel niet zomaar op de markt worden gebracht. Eerst volgen jaren van testen. Pas wanneer redelijkerwijs is aangetoond dat het veilig genoeg is, mag het worden verkocht.
Het idee dat bedrijven hun medicijnen zonder veiligheidscontrole zouden mogen aanbieden, vinden we volstrekt onacceptabel.
Waarom zouden we dat bij krachtige AI-systemen dan wel toestaan?
Op dit moment worden AI-systemen die miljoenen mensen kunnen beïnvloeden vaak uitgerold zonder vergelijkbare veiligheidsprocedures.
Kinderveiligheid als eerste stap
Een van de eerste terreinen waar zo’n veiligheidsregime kan worden ingevoerd, is AI-toepassingen voor kinderen.
Denk aan chatbots of digitale companions waarmee jongeren praten. Zulke systemen zouden vóór introductie getest moeten worden op risico’s zoals:
• het versterken van depressieve of suïcidale gedachten
• het verergeren van mentale gezondheidsproblemen
• emotionele manipulatie
• het aanzetten tot schadelijk gedrag
De redenering is eenvoudig. Wanneer een volwassene zich online voordoet als een kind en een elfjarige probeert te manipuleren of tot zelfbeschadiging aanzet, is dat strafbaar. Waarom zou hetzelfde gedrag acceptabel zijn wanneer het door een machine gebeurt?
Van één regel naar een compleet systeem
Net als in andere sectoren kan regelgeving voor AI stapsgewijs groeien. Het begint bijvoorbeeld met een relatief eenvoudige regel:
• AI-producten voor kinderen moeten vóór introductie getest worden.
Daarna kan het raamwerk worden uitgebreid:
• test of systemen niet kunnen helpen bij het maken van biowapens;
• test of ze niet kunnen worden gebruikt door terroristische organisaties;
• test of ze niet kunnen worden ingezet om democratische instituties te ondermijnen;
• test of ze niet autonoom kunnen escaleren tot systemen die buiten menselijke controle raken.
Zo kan geleidelijk een volwassener veiligheidsregime voor AI ontstaan — vergelijkbaar met de regels die we al kennen voor medicijnen, vliegtuigen of kerncentrales.
Technologie sturen in plaats van achteraf repareren
De geschiedenis laat zien dat technologie nooit neutraal is. Zij versterkt de instituties en waarden van de samenleving waarin zij ontstaat. De echte vraag rond AI is daarom niet wat machines kunnen, maar welke regels wij mensen stellen aan hun gebruik. AI kan een instrument worden dat menselijke mogelijkheden enorm vergroot. Maar dat gebeurt niet vanzelf. Net als bij medicijnen vraagt ook deze technologie om duidelijke regels, verantwoordelijkheid en democratische controle.
We laten ook geen medicijnen op de markt zonder veiligheidstesten.
De tijd is nu gekomen dat we dat met AI ook niet meer doen.
Peter van der Wel (12026)
PS: Vanuit mijn achtergrond als econoom en toekomstonderzoeker kijk ik naar technische ontwikkelingen in een bredere maatschappelijke context. Vandaar deze beschouwing over de toekomst van AI
Ben je het eens met de boodschap van deze blog? Post hem op de socials en/of stuur hem door naar een collega of vriend waarvan je denkt dat ze hem ook interessant zullen vinden! Kreeg je ’m zelf doorgestuurd? Abonneer je hier gratis op nieuwe blogs.
PPS: Reacties zijn welkom. Je kunt ze mailen naar mijn mailadres.
