Langzamerhand zijn we in de situatie gekomen dat we ons moeten gaan bezighouden met de juridische status van computerprogramma’s. We zijn in staat om software te ontwikkelen die een grote mate van zelfstandigheid heeft bij het verrichten van handelingen. Denk aan software die automatisch bekeuringen uitdeelt, vliegtuigen bestuurt, aandelen koopt en verkoopt, auto’s bestuurt of militaire software die in staat is om zelfstandig doelen uit te zoeken en te vernietigen.
Rechten van AI
“Domme” kunstmatige intelligentie mag nu al veel. De zelfrijdende auto’s van Google rijden al sinds 2012 op de openbare weg in verschillende Amerikaanse staten. Sterker, in sommige staten is dit (beperkte) recht van autonoom rijdende voertuigen zelfs al vastgelegd in een wet.
Flashcrash
Van de huidige software zou je nog kunnen zeggen dat uitvoering van taken tot een menselijke wil te herleiden is. Het verband tussen de wil van de programmeur en het uiteindelijke resultaat, een min- of meer zelfstandig opererende automaat, is nog groot. Maar hoe zit het met de juridische aansprakelijkheid? Wie is aansprakelijk als zulke software een flashcrash veroorzaakt op de financiële markten bijvoorbeeld of zelfstandig het verkeerde doel uitzoekt bij een drone aanval?
Zelflerende programma’s
Het gaat hier echter nog steeds om relatief eenvoudige technologie. Ook al is sommige van deze software tot op zekere hoogte zelf-lerend, het zijn nog steeds menselijke programmeurs die regels in een programma stoppen en het zijn mensen die bepalen of dat tot de gewenste uitkomsten leidt. Dus aansprakelijk is degene die de regels heeft gemaakt. Maar wat nu als software nóg ingewikkelder wordt? Als de regels die een programmeur in een programma vastlegt, alleen nog maar uitgangspunt zijn voor het zelfstandig reageren op nieuwe situaties? Dat soort software creëert dan in feite zelfstandig nieuwe regels die alleen op deze specifieke nieuwe situatie van toepassing zijn. Situaties waar niet van tevoren over nagedacht is.
Zelfbewuste programma’s
En nog een grote stap verder: Wat nu als programma’s nog (veel) geavanceerder worden? Als een programma een eigen wil of zelfs een zelfbewustzijn krijgt? Als het bijvoorbeeld zelfbewust of zelfs met een eigen wil aan het verkeer gaat deelnemen? Misschien uit vrije wil de maximum snelheid gaat overschrijden, of door rood rijdt omdat het haast heeft?
Eisen aan slimme software
Aan mensen stellen we veel eisen voordat ze een auto mogen besturen: Minimum leeftijd, verantwoordelijkheid, ervaring opgedaan tijdens rijlessen, een examen etc. Gaan we dat dan ook doen voor deze hele slimme software?
Domme slimme software
Er gaat dan een paradoxale situatie ontstaan dat “domme” software zomaar de weg op mag en hele slimme software misschien wel niet. En dan natuurlijk vooral niet omdat hele slimme software (iets waarvan we overigens nog heel ver weg zijn) in eerste instantie niet eens zo slim zal zijn als een hond, laat staan zo slim als een 12-jarige mens.
Waar ligt de grens?
Hoe slim mag software eigenlijk zijn, voordat we het zijn/haar recht op (bijvoorbeeld) zelfstandig auto rijden gaan ontzeggen?
© 2015 Peter van der Wel en Benjamin Zitman