Toezichthoudende instanties onderschatten de implementatie van AI-systemen. De inzet van algoritmes kan het werk van toezichthouders echter wel degelijk ondersteunen. Zogenaamde autonome overheidsbesluiten hebben een slechte naam gekregen, maar dit heeft zijn oorsprong in eenzijdige data, die in discriminerende keuzes uitmondt. Dit stelt een groep experts onder de vlag van ECP | Platform voor de InformatieSamenleving in een vorige week uitgebracht essay.

Ménsen maken fouten

De combinatie van snelle technische ontwikkelingen en de beschikbaarheid van grote hoeveelheden data heeft KI een flinke slinger gegeven. Hierdoor zijn kansen ontstaan voor de uitvoering van toezicht. Maar AI-technologie, die meer doet dan goed gedocumenteerde processen uitvoeren, kan onbedoelde en onverwachte gevolgen hebben.

Toezichthoudende instanties kunnen AI op een verantwoorde manier implementeren, maar daarvoor moeten ze wel aan de slag, schrijven de auteurs. Daarbij geldt dat ‘set it and forget it’ uit den boze is: organisatie en hun processen zijn immers aan veranderingen onderhevig. Mensen maken daarnaast fouten bij het implementeren van de technologie, waarvoor reparatie nodig is. Ook moeten organisaties de integriteit van data en besluiten bewaken om (ongewenste) neveneffecten te voorkomen.

De experts zien dat toezichthoudende instanties de implementatie van AI-systemen onderschatten en stellen dat implementatie veel meer vergt dan alleen inpassing van een de technologie in de organisatie. Zo brengt AI bijvoorbeeld veranderingen met zich mee in de organisatie en in de primaire processen.

Je moet kennis hebben van wat AI-technologie kan en doet, en wat de sterke en zwakke kanten zijn. Anders is een verantwoorde toepassing en implementatie onhaalbaar. “Dat geldt ook voor het delen van ervaringen en het voeren van gesprekken over achterliggende ethische en juridische waarden tussen toezichthoudende instanties onderling”, zegt Daniël Frijters, programmamanager bij ECP.

Onvoldoende wettelijke kaders

Bestaande wet- en regelgeving biedt onvoldoende kaders voor de inzet van nieuwe technologie als AI, stellen de auteurs. Dat brengt onzekerheid met zich mee voor de partij die AI wil gaan inzetten, maar ook voor de toezichthouder zelf. De experts opperen daarom voor eenzelfde aanpak als de Belastingdienst met de ‘compliance’-benadering.

“In dergelijke situaties is het belangrijk om gezamenlijk verkennend te zoeken naar wat techniek wel en niet mag en wat wenselijk is. Samen met bedrijven ontdekt de toezichthouder waar de ethische en juridische grenzen liggen en hoe wet- en regelgeving kan worden toegepast in nieuwe en specifieke situaties.”

Een blind geloof in AI-technologie is niet zaligmakend, schrijven de experts. Aan de hand van het praktijkvoorbeeld ‘Opsporen en aanpakken van witwassen’ laten zij zien dat burgers onevenredig getroffen kunnen worden. De vraag van toezichthouders om steeds meer informatiebronnen te mogen koppelen zet de privacy van burgers onder druk.

Auto-matische besluiten

Ook blijkt een blind geloof te leiden tot automatische besluiten die niet te herleiden en moeilijk aan te passen zijn, zoals zichtbaar wordt in de casus ‘Toezicht in het verkeersdomein’.

Vaak streven organisaties met de beste bedoelingen naar efficiency. De auteurs laten zien dat dit ook zijn keerzijden heeft. De rol van de toezichthouder ten opzichte van de partij waarop toezicht wordt uitgeoefend, verandert. Vaak gebeurt dat ‘onderhuids, onbewust en onverwacht’.

Een in het essay aangehaald voorbeeld van de Kafkabrigade laat duidelijk zien wat dat kan betekenen voor een nietsvermoedende burger wiens auto werd gestolen. Het voertuig werd een dag later door de politie – zonder terugmelding aan de eigenaar – teruggevonden. De burger werd vervolgens twintig jaar lang achtervolgd door boetes en een incassotraject. Er ontbraken immers APK-keuringen en ook de wegenbelasting werd niet betaald. Volgens het Justitieel Incassobureau, de RDW en de Belastingdienst zaten er echter geen fouten in hun systemen. Deze instanties hielden hardnekkig vast aan een ‘papieren waarheid’, gebaseerd op vervuilde data. De fysieke wereld was de administratieve ver vooruit: de auto was al een maand na terugvonst door de politie doorverkocht.

Over de publicatie

De publicatie Toezicht met algoritmen bevat een praktijkanalyse waarmee toezichthouders kunstmatige intelligentie verantwoord kunnen inbedden in hun processen, terwijl ze een vinger aan de pols houden. Aan de hand van drie casussen geven de AI-experts concrete handvatten in de volgende domeinen: het opsporen en aanpakken van witwassen, toekennen en afhandelen van verkeersboetes, en de verhouding tussen burger en overheid.

Het essay is geschreven door dezelfde expertgroep die eind 2018 het AI Impact Assessment heeft gepubliceerd, opgesteld voor die organisaties die hun verantwoordelijkheid willen nemen en AI verantwoord en transparant willen toepassen.

ECP is een publiek-privaat platform voor de informatiesamenleving.

REAGEREN

Plaats je reactie
Je naam