Menselijke ongelijkheid in artificiële intelligentie.
- 30 december 2022
In deze aflevering gaat host Inge in gesprek met beleidsadviseur Nadia Benaissa over waarom mensenrechten bij het gebruik van artificiële intelligentie beschermd moeten worden. Evelyn, vaste tafelgast en directeur van Bits of Freedom, luisterde naar de The Ezra Klein Show en vertelt ons wat ze leerde over deep reading. We bellen in met Gerbrig Klos van Amnesty International NL over het demonstratierecht, en waarom dat onder druk staat.
Evelyn verwijst naar deze aflevering The Ezra Klein Show: This Is Your Brain on ‘Deep Reading.’ It’s Pretty Magnificent.
Inge en Evelyn delen hun goede voornemens. Kijk op onze #hapklare voornemens-pagina zodat je een van de goede voornemens van Bits of Freedom kunt overnemen (en donateur kunt worden ;-) ).
Nadia vertelt over deze zaak: Coşkun vs. Reaal. Ruim anderhalf jaar geleden verscheen het wetsvoorstel over kunstmatige intelligentie vanuit de Europese Commissie. Hier lees je wat Nadia eerder schreef over dat die verordening mensenrechten beter moet beschermen en over de discriminatie die in data schuilt. En hier vind je alles over ons dossier Artificiele Intelligentie.
Hier vind je meer informatie over het werk van Amnesty Nederland op demonstratierecht.
Transcript
00:00:00 - 00:01:13
Inge Wannet: Je luistert naar de Bits of Freedom podcast. We gaan het vandaag hebben over kunstmatige intelligentie.
Music: (Jingle] muziek start en zanger zingt: geen datalekken achterbakse tracking geen bizarre wetten gewoon geen wereldvreemde shit voor het wereldwijde net, wil jij weten wat er speelt rondom het internet. Dit is Bits of Freedom.
Inge Wannet: Een klantenservice chatbot, zelfrijdende auto's, gezichtsherkenningstechnologie, voorspellend politiewerk, fraudebestrijding bij de Belastingdienst, wat hebben ze allemaal gemeen? Artificiële intelligentie, ofwel AI. Dat zijn computersystemen die bepaalde mentale processen kunnen uitvoeren, zoals redeneren, leren en beslissen. AI-systemen kunnen gegevens analyseren en beslissingen maken op basis van die gegevens. Eigenlijk net zoals mensen dat kunnen, maar in tegenstelling tot menselijke intelligentie, die gebaseerd is op biologisch processen en ervaring, is AI gebaseerd op algoritme. Een algoritme is een stappenplan dat gebruikt wordt om een bepaalde taak te voltooien of een probleem op te lossen.
00:01:13 - 00:02:41
Inge Wannet: AI-systemen kunnen sneller en accurater zijn dan mensen in het uitvoeren van specifieke taken, maar ze zijn vaak minder flexibel en minder creatief dan menselijke intelligentie. Als het gaat over AI of AI wordt er vaak in termen gepraat zoals: processen optimaliseren en efficiënter maken, vergemakkelijken en verbeteren. Je stopt er gegevens in en er komen neutrale voorspellingen, redeneringen of beslissingen uit. Dat lijkt het idee. Omdat het door een computer gedaan wordt, heeft het een sausje van objectiviteit, maar dat is niet zo. Algoritmes worden gemaakt door mensen en maken gebruik van data die door mensen verzameld zijn. Op die manier kan een algoritme bestaande vooroordelen in de samenleving juist versterken, kan een algoritme super vooringenomen of racistisch zijn terwijl het lijkt alsof er ongekleurd data uitkomt. Echt heel eng. Daarom moet het gebruik van kunstmatige intelligentie en het beschermen van mensenrechten daarbij goed verankerd worden in de wet. Ik ga daarover in gesprek met onze AI-expert, Nadia Benaissa, en met onze directeur, Evelyn Austin. Mijn naam is Inge Wannet, welkom bij de Bits of Freedom podcast. Maar eerst, Evelyn, jij hebt natuurlijk weer eindeloos zitten scrollen, neem me mee.
00:02:42 - 00:03:09
Evelyn Austin: Ja, ik heb eindeloos zitten scrollen en ben verzeild geraakt in de podcast van Ezra Klein. Die luisterde ik heel lang niet, want ik werd het een beetje zat, maar hij had nu een aflevering over lezen en ik ben dol op lezen. Ik ben ook heel geïnteresseerd in lezen op schermen, daar wordt in Nederland ook heel veel onderzoek naar gedaan. We hebben ook echt een soort leesonderzoek cultuur.
00:03:09 - 00:03:14
Inge Wannet: Wacht even, dus je bent geïnteresseerd in mensen die lezen op een e-reader of zo?
00:03:15 - 00:03:19
Evelyn Austin: Gewoon op alle schermen, de computers, telefoons. Dus er wordt heel veel onderzoek gedaan. Aan de ene kant komt het uit bijvoorbeeld dat zo een stichting lezen ziet - dat bestaat - dat kinderen steeds minder lezen. Dan wordt de computer natuurlijk als een soort van grote boeman gezien, waar dat door komt. Dus een deel van het onderzoek naar lezen op schermen komt voort uit: misschien kunnen we kinderen grijpen met literatuur op de plekken waar ze al zijn, maar er is ook een beweging vanuit een soort UX-hoek.
00:03:19 - 00:03:19
Inge Wannet: Wat is een UX-hoek?
00:03:19 - 00:08:31
Evelyn Austin: Een soort user design en hoe kun je wat je ziet op een scherm ontwerpen zodat je daar zo snel mogelijk leest, met zoveel mogelijk plezier leest. Zo ben ik jaren geleden een keer op het onderzoek gekomen van Niels 't Hooft, dat is een Nederlandse ontwerper, komt oorspronkelijk uit de game-industrie. Hij doet bijvoorbeeld van die onderzoeken waarbij hij kijkt: lezen mensen sneller als ze vier woorden op een regel zien of zes woorden? Wat gebeurt er als je één woord per keer toont op een op een scherm in plaats van een hele bladzijde? Al dat soort leuke dingen. Edward Klein heeft een podcast, de Edward Klein show, en hij sprak met Marian Wolf, een professor aan de universiteit in Amerika, aan de school of education and information studies, over wat zij dan deep reading noemt. Er is blijkbaar ook een andere schrijver die het heeft over de shallows, zoals hij het beschrijft, hoe we online lezen of digitaal lezen. Het is echt een superinteressant gesprek. Er wordt heel vaak gezegd dat kinderen vooral minder lezen. Dan zijn er ook weer mensen die zeggen: nee, je consumeert veel meer tekst dan vroeger als je je bedenkt, op sociale media, hoeveel woordjes, instructies, dingetjes. Voor mij was dit in ieder geval een verrijking van mijn perspectief hierop, want zij zegt: "We moeten niet kijken naar hoeveel er wordt gelezen, maar in welke staat mensen lezen." Ze heeft het dan over het verschil tussen deep reading, wat je doet met heel veel aandacht en waar je vaak langere tijd mee bezig bent, versus skimmen of information sampling, noemt zij hetgene wat we doen online op digitale schermen. Ze haalt daar McLuhan ook bij en zegt: "Het wordt pas echt interessant als je kijkt naar welke gewoontes verschillende soorten media of mediums bij ons stimuleren." Dus een fysiek boek stimuleert contemplatie en ook echt een soort van langere attention span. Dus we vertragen. Dat zie je ook in heel veel onderzoeken naar kinderen. Kinderen bijvoorbeeld, meer aan het lezen krijgen, dat het heel veel gaat over hoe kunnen we zo snel mogelijk woordjes leren, zo snel mogelijk zorgen dat kinderen zoveel mogelijk lezen? Maar zij zegt: "Dat creëert een gewoonte van sampling en stimuleert het deel van ons brein - want zij is neurowetenschapper - wat geprikkeld wordt door novelty. Dat was vroeger, toen we allemaal holbewoner waren, heel handig, want dan zag je iets geks in het landschap en dacht je: gevaar, daar moet ik extra op letten. Nu is dat nog steeds een goeie skill, maar het wordt overgestimuleerd en het gaat dan ten koste van empathie, begrip en ook je eigen wijsheid ontwikkelen. Ze haalt een supermooie quote van Proust aan: "Lezen is voorbij de wijsheid van de schrijver gaan en die van jezelf ontdekken." Dat vond ik prachtig en omdat zij neurowetenschapper is, kan ze ook echt verklaren wat er in je hersens gebeuren, ze zegt: "Als je echt aan het deep readen bent, dus echt op papier voor langere tijd aan het lezen bent, en die vertraging plaatsvindt, dan beginnen alle delen van je hersenen op te lichten." Dat is blijkbaar heel uniek ook aan lezen. Het licht delen van je hersens op die zowel communicatief zijn, dus gericht zijn naar extern, als heel solitary, dus het is zowel de zelfontwikkeling als de verbinding met de buitenwereld. Ik vond het echt prachtig. Het is een heel mooi gesprek, ze hebben het ook over hoe we met het internet meer verbinding en meer informatie hebben, maar steeds minder wijsheid en dus soort overprikkeld worden. Het laatste uit het gesprek wat ik nog wil vertellen, is dat lezen heel onnatuurlijk is. Dus er is geen gebied in je hersens die specifiek er is om te lezen. We gebruiken allerlei andere delen van ons hoofd die bedoeld zijn voor andere dingen, die hebben we gerepurposed voor het lezen. Dat verklaart misschien ook, als je echt in die deep learning staat raakt, waarom dat zo een verrijkende ervaring is. Ik vond het een mooi gesprek, ik raad het je aan.
00:08:45 - 00:09:05
Inge Wannet: Ik ga het nu zeker luisteren. We zullen voor de luisteraar een linkje in de shownotes zetten. Dat zijn aantekeningen bij deze aflevering op onze website. Voor we verder gaan, Evelyn, we zitten zo een beetje aan het einde van het jaar, vroeg ik me af: heb jij nog goede voornemens voor het nieuwe jaar?
00:09:05 - 00:09:14
Evelyn Austin: Ja, meer lezen. Ik heb elk jaar de ambitie om een boek per week te lezen. Dat ga ik dit jaar niet helemaal halen.
00:09:15 - 00:09:15
Inge Wannet: Op hoeveel zit je nu?
00:09:15 - 00:09:19
Evelyn Austin: Ik denk 40, 45, zoiets.
00:09:19 - 00:09:20
Inge Wannet: Netjes.
00:09:20 - 00:09:24
Evelyn Austin: Maar volgend jaar een tandje erbij. En jij?
00:09:26 - 00:09:53
Inge Wannet: Meer lezen klinkt wel goed. Ik heb het dit jaar voor het eerst bijgehouden, ik heb 30 boeken gelezen, ook best wel veel voor mijn doen. Maar eerlijk gezegd, vind ik goede voornemens ook altijd een beetje lastig, dan denk ik: als ik iets goeds bedenk, dan ga ik het wel meteen doen. Waarom wachten op nieuwjaar? Maar we hebben nu ook iets leuks, want als de luisteraar geen goede voornemens heeft, dan maken we ze het heel gemakkelijk dit jaar. Op onze website staan namelijk tien goede voornemens die je gratis en voor niks zomaar mag overnemen. Je vindt de link in de show notes.
00:09:53 - 00:09:53
Evelyn Austin: Helemaal gratis, helemaal voor niks?
00:09:53 - 00:09:53
Inge Wannet: Nee, eigenlijk is het natuurlijk wel fijn als mensen donateur worden, zodat wij deze goede voornemens voor ze uit kunnen voeren.
00:10:17 - 00:10:18
Evelyn Austin: Dat is ook mijn goede voornemen.
00:10:25 - 00:10:30
Inge Wannet: Nadia, we gaan door met kunstmatige intelligentie. Waarom houden we ons daar bij Bits of Freedom mee bezig?
00:10:31 - 00:11:01
Nadia Benaissa: We willen dat bij het gebruik van kunstmatige intelligentie mensenrechten beschermd worden, en dat klinkt heel vanzelfsprekend, maar dat is het helaas niet. Er zijn best wel veel voorbeelden waarbij het gebruik van kunstmatige intelligentie resulteerde in, bijvoorbeeld, discriminatie of gebrek aan transparantie en controleerbaarheid. Dat komt deels omdat de gegevens die gebruikt worden afkomstig zijn uit de maatschappij waarin we te maken hebben met sociale problemen en soms met een hele lange geschiedenis van sociale problemen.
00:11:02 - 00:11:13
Inge Wannet: Het wordt altijd gezegd: AI kan die sociale problemen in de maatschappij versterken, maar hoe werkt dat dan precies? Hoe doet zo een AI dat dan?
00:11:14 - 00:11:58
Nadia Benaissa: Bij het gebruik van kunstmatige intelligentie worden vaak gegevens gebruikt die zijn vertaald naar cijfers en statistieken. Dat klinkt al heel objectief en feitelijk, cijfers e statistieken, en er wordt heel vaak niet nagedacht over de context waarin die cijfers en statistieken tot stand zijn gekomen. Die komen natuurlijk uit de maatschappij. Als je in die maatschappij bijvoorbeeld het fenomeen hebt dat vrouwen vaker lagere salarissen hebben dan mannen, dan wordt er bij die cijfers niet verteld dat die vrouwen systematisch gediscrimineerd worden op de arbeidsmarkt. Of cijfers waaruit blijkt dat migrantengroepen vaak vertegenwoordigd zijn in de criminaliteit negeren dat er etnisch geprofileerd wordt door de politie. Of cijfers over opleidingsniveaus van kinderen, daarbij wordt niet besproken dat kinderen uit lagere sociale klassen of kinderen met een migratieachtergrond regelmatig en veel te laag schooladvies krijgen.
00:12:11 - 00:12:23
Inge Wannet: Dan ligt het er aan dat de cijfers die verzameld zijn een soort van contextloos gebruikt worden, maar natuurlijk ook welke cijfers er specifiek verzameld zijn.
00:12:23 - 00:12:24
Nadia Benaissa: Ja, precies
00:12:24 - 00:12:24
Inge Wannet: Zo een onderzoek is natuurlijk ook al gekleurd in het feit dat het überhaupt gebeurt.
00:12:28 - 00:12:39
Nadia Benaissa: Exact. Waar kijk je naar? Waar focus je op? Daarmee wordt dus maar een deel van een werkelijkheid vertelt, maar het wordt dus aangenomen als de volledige werkelijkheid.
00:12:40 - 00:12:40
Evelyn Austin: Ik herhaal zelf heel vaak het voorbeeld dat jij mij een keer hebt gegeven over die verzekeraar. Dat vind ik een heel sprekend voorbeeld die meteen inzichtelijk maakt wat het probleem precies is.
00:12:40 - 00:12:40
Evelyn Austin: Ik ken dit voorbeeld niet.
00:12:56 - 00:15:48
Nadia Benaissa: Reaal, het is al 20 jaar een gebed van de eind. Ik las er twee weken geleden nog een artikel over, dat het nog steeds voortduurt. Esra Coskun is een meisje, inmiddels een dame van rond de 30 jaar. Ze werd aangereden door een motor toen ze rond de 10 jaar was, terwijl ze een zebrapad over stak, liep letsel op, blijvend letsel, waaronder hersenletsel. Toen ze uit haar coma ontwaakte werd duidelijk dat haar leven nooit meer hetzelfde zou zijn, dat ze ook nooit in staat zou zijn om te gaan werken. In Nederland is het dan zo dat er dan schade berekend moet worden. Maar dat doen we op zo een concreet mogelijke manier, dat zo goed mogelijk past bij de persoon die de schade heeft opgelopen. Dus wij hebben geen soort van standaard, maar we kijken naar de persoon. Dus er is een heel bekend arrest in Nederland waaruit blijkt dat als je een oudere mevrouw met een AOW-uitkering aanrijdt dat dat anders is dan wanneer je een jonge Philips directeur aanrijdt. Want die Philips directeur heeft natuurlijk een heel ander salaris, hele andere ambities en waarschijnlijk een hele andere toekomst dan die mevrouw die al een AOW-uitkering ontvangt. Maar hoe doe je dat dan bij een kind dat pas tien jaar oud is? Want die heeft nog niet eerder gewerkt, die heeft nog geen salaris, die heeft ook nog niet eens een opleiding gevolgd. Dan moet je gaan voorspellen, dan moet je een hypothetische schadeberekening gaan berekenen. Bij Esra werd er gezegd door haar leerkracht: "Ze zou wel eens kapster kunnen worden, want dat heeft ze een keertje gezegd." Er was natuurlijk ook nog geen CITO of iets dergelijks afgenomen, althans geen eind CITO, dus er was ook nog niets over haar mogelijke studieniveau gezegd, dat werd allemaal maar geschat. Uiteindelijk had de verzekeraar, maar ook de rechter, het zo ingeschat dat, omdat Esra een vrouw is, ze op een zekere leeftijd zou gaan trouwen, kinderen zou krijgen, daardoor dus minder zou gaan werken. Het ergste is dat de rechter daar toen bij betrokken heeft, ze had namelijk een Turkse achtergrond, dat dat gezien haar culturele achtergrond best wel plausibel zou kunnen zijn.
00:15:48 - 00:15:55
Evelyn Austin: Wat verschrikkelijk. Inge´ s gezicht...
00:15:55 - 00:15:56
Inge Wannet: Ik ben helemaal sprakeloos.
00:15:57 - 00:16:55
Nadia Benaissa: Zo gaat dat met data. Toen ik hierover las in het nieuws destijds, dacht ik: dit kan toch niet waar zijn. Toen ben ik mijn scriptie erover gaan schrijven. Ik deed toen mijn masteropleiding in privaatrecht en dacht: hier ga ik een scriptie over schrijven. En toen bleek dat dit de normale gang van zaken is, dat we kijken naar statistieken, dat die statistieken aan moeten sluiten bij de persoon over wie het gaat. Dus als je een vrouw bent, dan is het eenmaal zo dat je minder verdient, dat je minder uren krijgt, dat je mogelijk ontslagen wordt als je zwanger raakt, dat je vervolgens moeilijk aan de bak komt. Als je trouwt heeft dat effect op het inkomen van de vrouw, meer dan het inkomen van de man. Dus hele plausibele cijfers die prima meegenomen kunnen worden in een schadeberekening.
00:16:55 - 00:17:01
Inge Wannet: Het doet me ook denken aan die serie over de vliegtuigramp in de Bijlmer. Toen werden ook de schadevergoedingen voor de slachtoffers op deze manier berekend. Wat me toen heel erg aangreep was dat er inderdaad ook over een baby een soort van berekening werd gemaakt naar aanleiding van het opleidingsniveau van zijn ouders en dat soort dingen. Maar het voorbeeld waar jij het nu over hebt en waar het toen ook over ging, dit zijn dan nog voorbeelden waar de data nog door mensen berekend worden? In AI wordt dit allemaal gestandaardiseerd.
00:17:38 - 00:18:20
Nadia Benaissa: De gegevens die voor AI gebruikt worden zijn ooit ook door mensen verzameld, in ieder geval afkomstig uit de maatschappij waarin mensen leven. Dus wij hebben daar zeker wel invloed op en ik denk dat we ons daar in ieder geval bewuster van moeten zijn. Dat de waarheid, tussen aanhalingstekens, die we vertalen naar die cijfers en statistieken en de berekeningen die we daar vervolgens op los laten, die we allemaal heel eerlijk vinden, wie zijn degenen die dat zo eerlijk vinden? Dat zijn eerder die Philips directeuren dan de Esra's die op tienjarige leeftijd een toekomst zien vergaan.
00:18:21 - 00:18:26
Inge Wannet: Ja, want het gaat dus vaak over mensen die ondergerepresenteerd worden in die data of overgerepresenteerd, maar op een verkeerde manier in die zin. Het doet me ook denken aan de vorige aflevering waarin ik sprak met Robin Pecorni. Dat is de student die een klacht indiende bij het college voor de rechten van de mens over anti-spieksoftware die haar universiteit gebruikt. Daar is nu een tussenuitspraak geweest, die is positief. De VU moet nu gaan bewijzen dat die anti-spieksoftware niet racistisch zou zijn. Maar die software is dus echt een voorbeeld van hoe een AI, een kunstmatige intelligentie, racistisch kan zijn. Wat zijn meer voorbeelden waarin het gebruik van zo een AI echt problematisch uit kan pakken?
00:19:13 - 00:20:34
Nadia Benaissa: Nederland is inmiddels berucht door het toeslagenschandaal, daarbij heeft de Belastingdienst gebruik gemaakt van discriminerende algoritme. Dat was niet per ongeluk, dat was de bedoeling. Mensen met een niet-Nederlandse nationaliteit en mensen met een lager inkomen kregen een hogere risicoscore. Amnesty heeft hier onderzoek naar gedaan en noemde dit een schending van het verbod op discriminatie waarbij bepaalde groepen gecriminaliseerd worden. Ook noemen ze het een versterking van historische stereotyperende associaties tussen bijvoorbeeld fraude en etnische afkomst. We weten inmiddels dat het handelen van de Belastingdienst mensenlevens, kinderlevens, geruïneerd heeft. Een ander voorbeeld, waar ik laatst over las, ging over een spraakopdrachtensysteem in een auto. Dit was wel in 2012. Dat is dat je een auto opdrachten geeft om iets te doen. Ik geloof dat het hierbij ging om bepaalde instellingen. Daarbij wilde die auto alleen opdrachten aannemen van de echtgenoot van de bestuurder die op de passagiersstoel zat, omdat het haar stem dus niet herkende. Vrouwen die zich hierover beklaagden kregen het advies een lagere stem op te zetten.
00:20:36 - 00:20:38
Inge Wannet:[zware stem] Ik ben een man, je mag mijn opdrachten aannemen.
00:20:39 - 00:20:39
Nadia Benaissa: Het systeem was namelijk getraind op een mannenstem. Zo wordt er bij heel veel data constant uitgegaan van de reference man, dat is een witte man van 1.75, die 80 kilo weegt. Maar dat gebeurt dus ook in de medische wereld, waardoor het herkennen van bijvoorbeeld ziekte en behandelingen die daar goed op zouden kunnen aansluiten, dus ook afwijken bij mensen die niet hetzelfde lichaam hebben als die reference man. Als je die data dus ook gebruikt voor kunstmatige intelligentie, bijvoorbeeld om ziekte te herkennen of behandelingen uit te voeren, dan kun je je afvragen hoe betrouwbaar dat is en of je wel in goede handen bent.
00:21:26 - 00:21:32
Evelyn Austin: Je bent technologie aan het ontwikkelen die de problemen oplost van sommige mensen en niet van andere mensen.
00:21:32 - 00:21:36
Nadia Benaissa: Misschien ook wel de problemen van andere mensen verergert.
00:21:37 - 00:22:28
Inge Wannet: Wat verschrikkelijk! Als ik er wel eens over nadenk, AI wordt steeds meer gebruikt in de samenleving en dat hier zo weinig rekening mee wordt gehouden. Dus bijvoorbeeld zo een VU software, daar was al van bekend dat dat racistisch was, al jaren, en toch wordt dat dan gebruikt. We weten dat het niet representatief is, maar we gaan het toch gebruiken. Maar daarom dus ook zo belangrijk dat het verankerd wordt in de wet. Als eerste stap, maar volgens mij net als altijd met wetgeving, loopt de wet nu best wel achter de feiten aan. Hoe staat het er nu voor met de bescherming van de mensenrechten en de wetgeving over AI?
00:22:30 - 00:24:25
Nadia Benaissa: Zo een anderhalf jaar geleden inmiddels, is het eerste wetsvoorstel door de Europese commissie gepubliceerd over kunstmatige intelligentie. Daarin ontbraken nog best wel wat rechten, of ze waren niet goed uitgewerkt. Dat vonden we best wel kwalijk, want één van de doelen van die wetgeving was het beschermen van fundamentele rechten. Dat kon beter. Dus wij hebben samen met de andere organisaties delen van die wetteksten herschreven zodat rechten van burgers wel wat beter beschermd zouden worden. Bijvoorbeeld, door ervoor te zorgen dat mensen recht hebben op transparantie en controleerbaarheid. Dat bepaalde toepassingen die zo risicovol zijn voor mensenrechten, waarvan we nu al weten dat het een te grote impact zou kunnen hebben, dat dat die toepassingen verboden worden. Dat mensen naar de rechter kunnen stappen als ze het niet eens zijn met een beslissing. Dat zijn bijvoorbeeld rechten die we daarin terug willen zien. We zien dat er best wel wat van de amendementen, zoals het dan heet, die we hebben voorgesteld worden overgenomen. Bijvoorbeeld ook, één van de dingen waar we voor pleiten, is dat er een verbod komt op predictive policing. Dat zijn algoritme die voorspellen waar bijvoorbeeld criminaliteit zou kunnen plaatsvinden. Dat zijn dingen die steeds meer stemmen gaan krijgen, waar steeds meer draagvlak voor lijkt te zijn. Maar we zijn er nog niet en het gaat nog een paar maanden duren. Dus we blijven ons voorlopig nog inzetten en erop pushen dat kunstmatige intelligentie heel veel leuke dingen kan doen, maar dat de absolute voorwaarde is dat mensenrechten beschermd worden.
00:24:25 - 00:24:35
Inge Wannet: Jazeker, en daarnaast, Evelyn zei het ook al, even over die wetgeving, een soort van eerste stap, want lost goede wetgeving alles op?
00:24:35 - 00:24:36
Nadia Benaissa: Ja, was het maar zo.
00:24:37 - 00:24:48
Evelyn Austin: Want adresseert het voorstel, zoals het er nu ligt, überhaupt dat probleem van die historische data en de ongelijkheid die daarin schuil kan gaan?
00:24:49 - 00:25:08
Nadia Benaissa: Nee, er is bizar weinig aandacht voor en dat is in ieder geval iets waar wij als Bits of Freedom ons dan sterk voor willen maken, dat er echt veel meer bewustwording komt voor de complexiteit van onze samenleving. Waarin we nou eenmaal te maken hebben met de geschiedenis, met heel veel ongelijkheid en onrecht, en dat die historische machtsstructuren nog steeds een onderdeel vormen in onze maatschappij. Dus als we inderdaad die gegevens gaan verzamelen en gebruiken, dan moeten we daarbij ook oog hebben voor de context van die gegevens, voordat we die vervolgens invoeren in allerlei kunstmatige intelligentie toepassingen. Het is dus ook heel belangrijk dat we dit probleem, waarbij kunstmatige intelligentie dus slecht kan uitpakken voor bepaalde mensen of bepaalde groepen mensen, niet alleen vanuit een juridisch oogpunt aanvliegen of vanuit een data scientist perspectief. Dat we ook oog hebben voor de sociale vraagstukken en dat we al die verschillende perspectieven bij elkaar gaan brengen, willen we echt naar een serieuze oplossing toe gaan werken, want het is zo complex dat er simpelweg geen one size fits all oplossing voor is.
00:26:20 - 00:26:32
Inge Wannet: Wat ik me bijvoorbeeld ook nog afvroeg, houdt die wet ook ontwikkelaars van dat soort AI verantwoordelijk voor hoe zij te werk gaan in de ontwikkeling? Of gaat het alleen maar over het gebruik van de toepassingen?
00:26:32 - 00:26:37
Nadia Benaissa: Ja, dat wel. Het is vooral gericht op de ontwikkelaars en op de gebruikers.
00:26:37 - 00:26:39
Inge Wannet: Dus echt beide kanten daarvan komen aan bod.
00:26:39 - 00:26:40
Inge Wannet: Ja, klopt.
00:26:43 - 00:26:54
Inge Wannet: Je zei net al: we hebben nog een paar maanden. Vanaf nu, wat gaat er nog gebeuren? Met wie ga jij nog vechten om die wet beter te maken?
00:26:55 - 00:27:44
Nadia Benaissa: Het Europees parlement is nog niet volledig tot een compromis gekomen. Er is onlangs nog gezegd: het gaat niet lukken voor het nieuwe jaar, dus de verwachting is dat dat nog wel een paar maanden gaat duren. Dus daar blijven we mee in gesprek. Onlangs hebben we ook een brief gestuurd naar kamerleden naar Nederlandse Tweede Kamerleden, omdat Nederland ook natuurlijk een aandeel heeft in het ontwerpen van die wet en zich daarover uit moet spreken. Daar hebben we ook weer aangegeven wat er nog aan ontbreekt en wat Nederland mee kan geven om tot een betere wet te komen. Dus die gesprekken blijven we voeren tot het eind, tot we erbij neervallen.
00:27:46 - 00:27:56
Inge Wannet: Laten we in het nieuwe jaar, als er meer bekend is, nog een keer zitten en kijken hoe het ervoor staat, maar nu in ieder geval dank je wel.
00:27:56 - 00:27:57
Nadia Benaissa: Jullie ook.
00:28:04 - 00:28:35
Inge Wannet: We sluiten de podcast elke week af met een telefoontje naar iemand met een bijzondere kijk op het internet. Deze week bellen we met Gerbrig Klos van Amnesty Nederland. We gaan bellen over het demonstratierecht in Nederland. Demonstreren is een mensenrecht en vormt één van de fundamenten van de rechtsstaat. Het demonstratierecht staat wereldwijd onder druk en daarom voert Amnesty actie. Dat werd wel heel actueel toen waarnemers van Amnesty zelf bedreigd en belaagd werden bij een demonstratie tegen zwarte piet in Staphorst. Ik ga haar bellen.
00:28:35 - 00:28:44
Gerbrig Klos: Met Gerbrig, hallo.
00:28:44 - 00:28:58
Inge Wannet: Hoi Gerbrig, je spreekt met Inge van Bits of Freedom. Fijn dat we je even kunnen bellen en we hebben korte tijd, dus ik wilde eigenlijk meteen beginnen. Wat zien jullie op dit moment als de belangrijkste knelpunten als het gaat om het demonstratierecht in Nederland?
00:28:58 - 00:29:46
Gerbrig Klos: Amnesty ziet dat het demonstratierecht onder druk staat om meerdere redenen. Een belangrijke is de kennis en houding van het gezag, van burgemeesters en politie ten aanzien van demonstraties. Die noemen problemen met de kennis en houding bij burgers. De wet, waar de regels zijn vastgelegd over hoe demonstraties moeten worden gefaciliteerd door de overheid, is niet in lijn met de mensenrechten. Wat we helaas ook hebben moeten constateren is dat het ontzettend lastig is voor activisten, voor demonstranten, die achteraf hun gelijk willen halen naar onrechtmatige inperkingen van hun demonstraties en onrechtmatige aanhoudingen, ontzettend veel moeite hebben om gelijk te krijgen, in het gelijk gesteld te worden.
00:29:46 - 00:29:54
Inge Wannet: Ja, dat zijn heel veel knelpunten die je noemt, die er op dit moment zijn.
00:29:55 - 00:30:58
Gerbrig Klos: Ja, en het belangrijkste, om natuurlijk in de eerste instantie te kijken naar dat probleem die we zien bij de kennis en houding van het gezag, dus met name het veiligheidsdenken, zien wij dat daar domineert. Waarbij door onvoldoende onderkend wordt hoe belangrijk het is dat burgers zichzelf organiseren en in het publiek, in het openbaar, gezamenlijk hun mening uiten. Een vreedzame meningsuiting is nooit een probleem voor een samenleving. Sterker nog, dat zou moeten worden toegejuicht. Terwijl wij zien dat de houding van het gezag heel erg ingesteld op het anticiperen van mogelijke risico's, op het handhaven op rust en orde ideeën. Dus die neiging, dat veiligheidsdenken, leidt tot allerlei onnodige en onrechtmatige inperkingen. Het feit dat dat gebeurt, leidt juist tot problemen in plaats van dat dat iets oplost. Dus wij zien daar echt een enorme kans voor verbetering.
00:30:58 - 00:31:20
Inge Wannet: En dat veiligheidsdenken resulteert er dus ook in dat burgemeesters en politie proberen om alle risico's van tevoren af te dekken, wat indruist tegen de essentie van het demonstratierecht. Hoe manifesteert zich dat online en bij de inzet van technologie?
00:31:22 - 00:32:16
Gerbrig Klos: Dat gebeurde al veel langer. Een goed voorbeeld daarvan zijn bijvoorbeeld identiteitscontroles. Sinds de wet ID dat mogelijk maakt om daarom te vragen, worden ID controles uitgevoerd om te achterhalen wie er demonstreert, wie die mensen zijn. Dus met als doel om informatie te verzamelen en te anticiperen op risico, vindt er ook grootschalige sociale mediamonitoring plaats. Ze zeggen de technologie maakt dat het allemaal op zulke grotere schaal kan plaatsvinden en dat er ook gegevensverwerking is na het verzamelen van die informatie. Waarvoor, volgens ons, de regels volstrekt ontoereikend zijn en daar helemaal niet rekenschap wordt gegeven van het feit dat het hier gaat om mensen die grondrechten in alle vrijheid uitoefenen.
00:32:16 - 00:32:36
Evelyn Austin: De schaal verandert, maar ik denk ook dat de belofte van die data, dat die objectief is, dat je ook door middel van de inzet of gebruik van data ook alle risico's kunt afdekken leidt misschien ter verergering van dat risicodenken of dat veiligheidsdenken.
00:32:37 - 00:33:20
Gerbrig Klos: Heel belangrijk dat je dat opmerkt en ik heb daar helemaal niks aan toe te voegen, dat is voor mij al helemaal vanzelfsprekend. Maar dat is inderdaad het hele idee, dat dat grootschalige dataverzameling leidt tot goed onderbouwde risicotaxatie. Het meest logisch is dat je gewoon in gesprek gaat. Burgers melden van tevoren hun demonstratie aan bij de gemeente. Dat zou het startpunt voor een goed gesprek moeten zijn, waarbij er over en weer vanuit de rechten die burgers hebben wordt gekeken en niet vanuit, tussen haakjes, belangen van andere partijen of belangen van winkeliers. Dat was heel erg vanuit gemeente en politie die erop gericht is om dat protest zo goed mogelijk uit de verf te laten komen.
00:33:23 - 00:33:44
Evelyn Austin: Ik weet nog dat ik een keer bij een praatje was van een hoogleraar aan de vrije universiteit. Die vertelde dat hij onderzoek deed, in opdracht van de politie, naar hoe drones ingezet zouden kunnen worden om demonstraties beter te laten verlopen. Toen dacht ik: het antwoord op die vraag zou wel echt heel anders zijn als je dat aan de demonstrant zou vragen.
00:33:44 - 00:35:31
Gerbrig Klos: Ja, en het hele problematische hier zie je natuurlijk wat je breder ziet met technologisering van het hele veiligheidsdomein en het politiehandelen, is dat er vanuit wordt gegaan dat het je helpt, dat het daardoor beter gaat. Terwijl dan moet je kijken: beter vanuit welk perspectief? Op zich is wat er gebeurde vorig jaar tijdens het woonprotest in Rotterdam een heel goed voorbeeld. Daar heeft dus de hele tijd een drone gehangen in de lucht. Vervolgens tijdens het protest en kort daarna ontstond er enorme verontwaardiging over de behoorlijkheid van het politieoptreden, ook Amnesty was daarover heel kritisch. Na heel lang discussie daarover, publieke discussie, ook in de media en in de gemeenteraad kwam de politie uiteindelijk met enkele beelden die dan door de drone waren gemaakt. Vervolgens waren dat fragmenten die de politie er zelf had uitgeknipt in hun analyse. Het laat meteen zien: als je een drone ophangt, dan is het ook all the way. De gemeentelijke camera's, dat wordt automatisch gewist na een x aantal dagen, ten verre van tevoren belang van verdere opsporing. In het geval van door de politie verzamelde informatie, bijvoorbeeld met een drone, dan zijn er andere bewaarregimes van toepassing en kunnen die data dus veel langer worden bewaard en op allerlei manieren verwerkt worden. Wij proberen dus te achterhalen welke regels daarvoor gelden. Dat in zichzelf blijkt een blackbox te zijn, dat mag natuurlijk niet. In een democratische rechtsstaat moet dat volstrekt transparant zijn en die transparantie ontbreekt.
00:35:32 - 00:35:54
Inge Wannet: Ik vind het zo belachelijk dat je als demonstrant aan moet kunnen tonen wie je bent. Iedereen laat zijn telefoon thuis, zodat die niet uitgemeten wordt. Je wordt in de gaten gehouden door een drone. Over wiens veiligheid gaat het? Niet over mensen die hun grondrecht aan het uitoefenen zijn.
00:35:54 - 00:37:04
Gerbrig Klos: Wat wij zien, er zijn mensen die dit zien zoals jij, ik denk dat ik ook aan die kant sta, die daarover verontwaardigd zijn en vervolgens in actie komen. Daartegen zich aansluiten bij een organisatie of een organisatie zoals Bits of Freedom ondersteunen, of Amnesty. Maar er zijn ook heel veel mensen die vanwege dat soort privacy invasie tijdens demonstraties denken: ik ga niet de straat op, want mijn werkgever... want als bekend wordt dat... dat is lastig voor mijn baan, voor mijn positie in sociaal opzicht misschien ook, en vrienden of familieleden, ik wil niet dat dat bekend wordt. Het zogenaamde chilling effect, dat dat mensen weerhoudt om zich uit te spreken. We moeten juist niet hebben in een samenleving dat mensen zich inhouden om zich op een vreedzame manier te uiten in een volstrekt legitieme vorm van protest. Dan keren mensen zich van de samenleving af of gaan zich vervolgens laten gelden op ondemocratische wijze, en dat is helemaal problematisch. In een democratische rechtstaat is dat een feitelijke bedreiging, als mensen zich tot andere dan vreedzame middelen wenden.
00:37:05 - 00:37:12
Inge Wannet: Welke stappen neemt Amnesty nu om het demonstratierecht te behouden en te verbeteren?
00:37:13 - 00:38:50
Gerbrig Klos: Ik noemde daarnet al die knelpunten aan het begin van het gesprek, barrières voor demonstratierecht, die proberen te beslechten, dat doen we met lokale actieteams in meer dan tien steden. We hebben de hoop dat we dat in de loop van de campagne kunnen uitbreiden naar 20 steden. Verder doen we landelijke lobby, we hebben allerlei nieuwe publieksvoorlichtingsdingen bedacht en ook samen uitgewerkt met bijvoorbeeld Het Klokhuis. We hebben een hele mooie uitzending gemaakt samen met Amnesty. Maar we hebben ook een hele leuke mensenrechtendialoog voor laagdrempelige gesprekken over het demonstratierecht. We verspreiden online allemaal informatie over wat je rechten zijn als demonstrant, waarom demonstreren belangrijk is. Verder werken we nauw samen met NGO's, we hebben een informeel netwerk gevormd waarbij we kennisdelen met elkaar en de kennisdeling tussen NGO's en sociale bewegingen proberen te versterken over het demonstratierecht. We denken mee met politieklachten, of bezwaar, of beroepsprocedures die sociale bewegingen voeren als zij menen dat hun demonstratierecht onnodig en onrechtmatig is ingeperkt. We zijn ook heel concreet bij demonstraties aanwezig met Amnesty waarnemersteams, die staan met vrijwilligers en mensen van ons secretariaat. Die zijn dus tijdens demonstraties aanwezig om voorlichting te geven over het demonstratierecht en om goed toe te zien op hoe in de praktijk het demonstratierecht, bij die specifieke demonstratie, wordt gewaarborgd. Wat er anders en beter moet de volgende keer.
00:38:50 - 00:39:01
Inge Wannet: Ontzettend goed en belangrijk werk wat jullie doen. Heel erg dank je wel daarvoor en natuurlijk ook heel erg bedankt dat je even met ons wilde bellen voor de podcast.
00:39:01 - 00:39:05
Gerbrig Klos: Ja, leuk om hierover in contact te blijven. Dank je wel en succes met de uitzending.
00:39:15 - 00:39:38
Inge Wannet: Deze podcast werd gemaakt door Bits of Freedom. Je hoorde mij, Inge Wannet, onze directeur, Evelyn Austin, en Nadia Benaissa. We belden in met Gerbrig Klos van Amnesty Nederland. Onze jingle werd gemaakt door Tim Koehoorn. De podcast werd geproduceerd en geëdit door Randal Peelen van Yolo media. Veel dank aan onze donateurs en natuurlijk aan jou, de luisteraar.