Ook voor AI geldt: vertrouwen is goed, controle is beter
- 05 augustus 2021
Het toeslagenschandaal heeft laten zien hoe belangrijk het is om beslissingen te kunnen controleren op juistheid en rechtmatigheid. Dat geldt ook voor (deels) geautomatiseerde beslissingen. De Europese wet op kunstmatige intelligentie is de uitgelezen plek om ervoor te zorgen dat transparantie, goede motivering en controleerbaarheid kunnen worden afgedwongen. Maar om dat te bereiken is nog een lange weg te gaan.
Van zwartgelakte dossiers tot zwarte lijsten
De zwartgelakte dossierslees hier het bericht van de NOS die de Belastingdienst stuurde naar ouders die wilden weten wat er mis was gegaan met hun kinderopvangtoeslag, kwamen symbool te staan voor de ondoorzichtigheid van overheidshandelen. Evenals de zwarte lijsten waarin 180.000 burgers geregistreerd staan als potentiële fraudeur, zonder dat die mensen daar enig weet van hebben. Het staat haaks op de algemene beginselen van behoorlijk bestuur, waaronder het recht op een goede en duidelijke motivering van een besluit (voor de liefhebber: artikel 3:46 e.v. Awb). Transparantie en controleerbaarheid van beslissingenLees hier wat we daar eerder over schreven die je leven beïnvloeden zijn onmisbaar voor de legitimiteit van, en het vertrouwen in de overheid. Ook bij private bedrijven is openheid over beslissingen onmisbaar. Als een bank je een lening weigert of een verzekeraar je aanvraag afwijst, moet je kunnen weten waarom.
Transparantie en controleerbaarheid van beslissingen die je leven beïnvloeden zijn onmisbaar voor de legitimiteit van, en het vertrouwen in de overheid.
Geautomatiseerde beslissingen
Beslissingen worden steeds vaker deels of volledig geautomatiseerd genomen met algoritmen en kunstmatige intelligentie. Om het gebruik van kunstmatige intelligentie in goede banen te leiden heeft de Europese Commissie een wetsvoorstel gepubliceerd dat gaat over kunstmatige intelligentie. Dé aangewezen plek om ervoor te zorgen dat ook (deels) geautomatiseerde beslissingen transparant, gemotiveerd en controleerbaar zijn, dachten wij. Maar daar dacht de Europese Commissie anders overLees hier wat we eerder schreven over het wetsvoorstel. Voor mensen die door uitkomsten van kunstmatige intelligentie geraakt kunnen worden, wordt in het wetsvoorstel geen enkele mogelijkheid geboden om die uitkomsten te begrijpen of te controleren. Mensen mogen hooguit in sommige gevallen geïnformeerd worden over het feit dat ze te maken hebben met kunstmatige intelligentie (artikel 52 van het wetsvoorstel). Er wordt wel wat geregeld voor gebruikers van AI-systemen, zoals gemeenten of banken die kunstmatige intelligentie afnemen van een ontwikkelaar. Zij mogen wel weten hoe het systeem tot uitkomsten is gekomen, maar kunnen alsnog niet afdwingen dat ze ook kunnen controleren of een beslissing juist en rechtmatig is genomen.
Hiermee gaat de Europese Commissie op een ontzettend laag beschermingsniveau zitten, die geen recht doet aan ons mensenrechtelijk kader. Dit terwijl de Commissie juist de uitgesproken wens heeft met deze wet fundamentele rechten goed te beschermen en te zorgen voor een mensgerichte benadering bij het gebruik van kunstmatige intelligentie. We hebben daarom de Europese Commissie opgeroepen daad bij woord te voegen en voor een passend beschermingsniveau te zorgen.
Hiermee gaat de Europese Commissie op een ontzettend laag beschermingsniveau zitten, die geen recht doet aan ons mensenrechtelijk kader.
De kloof tussen de technologie en het recht
Hoewel we vanuit een juridisch en ethisch oogpunt transparantie, motivering en controleerbaarheid onmisbaar vinden, zijn we ons er ook van bewust dat die behoefte nog niet aansluit bij de technische werkelijkheidLees hier over Oumaima Hajri's onderzoek naar algoritmische besluitvorming. Vind in een algoritme maar terug welke van de honderden 'beslisbomen' doorslaggevend was voor de beslissing. Bij kunstmatige intelligentie, waarin een systeem (deels) zelfstandig aan de slag gaat met data, is het nog moeilijker grip te krijgen op wat er binnen het systeem gebeurt. Het zou daarom in sommige gevallen kunnen zijn dat het praktisch niet mogelijk is om transparant te zijn over een uitkomst, deze te motiveren en te controleren. Maar daar mag iemand op wie zo’n beslissing impact kan hebben en wiens leven daardoor beïnvloed kan worden, niet de dupe van zijn. We vinden daarom dat algoritmen en kunstmatige intelligentie niet gebruikt mogen worden als onvoldoende openheid gegeven kan worden over de totstandkoming, juistheid en rechtmatigheid van de beslissingen die daaruit komen.
Belofte maakt schuld
Door de toeslagenellende is het helaas eenvoudig geworden ons in te beelden hoe mis het kan gaan als een organisatie met veel macht niet gecontroleerd kan worden. We hebben daarom de Nederlandse ministerieslees hier de brief die we naar de ministeries stuurden en de Europese Commissie opgeroepen ervoor te zorgen dat er goede wetgeving komt voor het gebruik van kunstmatige intelligentie, waarin recht wordt gedaan aan onze rechten en vrijheden. Het goede nieuws is dat zowel de ministeriesLees hier het strategisch actieplan AI als de Europese CommissieLees hier de White Paper AI van de Europese Commissie zich daar al op vastgelegd hebben. Nu moeten ze wel nog hun beloften inlossen.