Of je nu online een paar schoenen koopt, vakantiehuisje boekt, gebruikmaakt van de rij-assistentie in je auto of solliciteert, algoritmes ondersteunen het achterliggende proces en bepalen in belangrijke mate de uitkomst. Hoe acceptabel is dat? Waar leggen we als maatschappij de grens? En hoe creëer je binnen organisaties en teams vertrouwen in de uitkomsten van algoritmes? Dit waren de onderwerpen die centraal stonden tijdens een recent door CIO Magazine, KPMG en Microsoft georganiseerde rondetafelsessie.

Sander Klous, hoogleraar Big Data Ecosystems in Business and Society en partner bij KPMG Advisory, gaat als spreker tijdens de sessie hierop in. Klous: “Data en data-analyse krijgen op steeds meer plekken in onze samenleving invloed; soms dwingend zoals de tolpoortjes op de stations, meestal dermate goed adviserend dat je blindelings het advies volgt, zoals je navigatie in de auto.

Je bent je nauwelijks van de algoritmes bewust tot ze zichtbaar worden en beginnen te irriteren. Bijvoorbeeld als je voor de tiende keer op internet de schoenen voorbij ziet komen die je net hebt gekocht. Door nog meer data in de analyse te betrekken, bijvoorbeeld betaaldata via PSD2, zal die irritatie steeds meer naar de achtergrond verdwijnen. Dan komen we op het punt dat algoritmes er gewoon zijn, zonder dat we ons ervan bewust zijn.”

Autonomiediscussie

Er ontspint zich een discussie over de vraag hoeveel macht we de algoritmes willen geven. Klous: “De afgelopen jaren is die discussie vernauwd tot een privacy-discussie, terwijl het in mijn ogen veel meer een autonomiediscussie is. Welke beslissingen wil je als consument of werknemer zelf nemen en welke beslissingen wil je best overlaten aan een algoritme omdat je weet dat dat je tijd bespaart en over het algemeen de kwaliteit van de beslissing verbetert?

Een algoritme dat bepaalt welk politiek nieuws je ziet is van een andere aard dan een algoritme dat bepaalt wanneer de ruitenwissers van je auto aan moeten. De grote vraag is: hoe richten we het gebruik van algoritmes zo in dat mensen begrijpen wat de invloed van algoritmes is? Hoe zorgen we ervoor dat mensen hun eigen verantwoordelijkheden nog wel blijven nemen? En welke beheersingsmaatregelen nemen we om ervoor te zorgen dat niet alleen het algoritme maar ook het proces waarin het wordt gebruikt, van goede kwaliteit is?”

“Er zullen audits komen voor processen waarin algoritmes worden ingezet”

Het zijn vragen waar KPMG zich over buigt. Net zoals bedrijven worden onderworpen aan financiële audits, zullen er audits komen voor processen waarin algoritmes worden ingezet, zegt Klous. En dat is maar goed ook. “Een tijdje geleden hebben hackers via het entertainmentsysteem ingebroken in het automatische remsysteem van een auto, waardoor ze de auto allerlei dingen konden laten doen die de bestuurder absoluut niet wilde. Het algoritme zelf was prima, maar de omgeving niet en dan heb je alsnog een probleem. Dit beheersingsvraagstuk moet veel meer prioriteit gaan krijgen.”

Uitlegbaarheid

Het is een kleine stap van een automatisch remsysteem naar een zelfrijdende auto, een onderwerp dat vrijwel alle deelnemers aan de ronde tafel bezighoudt. De nieuwsgierigheid gaat vooral uit naar hoe het algoritme beslissingen neemt. Is dat nog zo uit te leggen dat mensen er begrip voor hebben? Daar kan Klous wel wat over vertellen. Hij laat een foto zien van het eerste dodelijke ongeluk met een zelfrijdende auto, een Uber-taxi in Amerika. Een vrouw stak de weg over van achter een busje dat het uitzicht blokkeerde. De auto heeft niet op tijd geremd.

Binnen 24 uur kwam de politie met de verklaring: als er een mens achter het stuur had gezeten, was er ook niet op tijd geremd. Veel interessanter was echter de analyse die is gemaakt op basis van de data van de auto. Wat bleek: de auto zag de vrouw wel, maar maakte de statistische keus om niet vol te remmen.

Het achterliggende principe is dat van false positives en false negatives. Het is vrijwel onmogelijk om een honderd procent nauwkeurig voorspellend algoritme te ontwerpen. Er is altijd onnauwkeurigheid en de mens bepaalt hoe de verhouding tussen false positives en false negatives wordt afgesteld bij een algoritme. Accepteer je helemaal geen false negatives, dan betekent dit dat je meer false positives toelaat.

In het geval van een zelfrijdende auto: die zal dan voor iedere overwaaiende plastic zak (false positive) vol in de rem gaan. Dat is nog gevaarlijker dan af en toe een false negative toestaan. Helaas voor de overstekende vrouw behoorde zij tot die laatste categorie.

Vertrouwen

Vanwege de bias in veel algoritmes is de combinatie van ‘mens en machine’ nu vaak het best. Niet voor niets moedigt de overheid het gebruik van rij-assistentie wel aan, maar zegt erbij dat je altijd zelf verantwoordelijk blijft. Dat is ook hoe Mark Reckers, big-data & cloudarchitect bij de Johan Cruijff Arena, met algoritmes omgaat. Een van de pioniers met AI in sport is Louis van Gaal. Al sinds 2007 adviseert Reckers hem als het gaat om het gebruik van data in topsport. “We kunnen heel veel in kaart brengen: spelpatronen, vaardigheden van spelers, blessuregevoeligheid.”

“Voor dat laatste hebben we een app ontwikkeld met drie vragen: hoe voel je je? Hoe goed heb je geslapen? Heb je ergens pijn? Deze factoren zijn het meest voorspellend voor de blessurekans, zo hebben we ontdekt. Een speler die komend weekend wil worden opgesteld, zal echter nooit uit zichzelf zeggen dat hij slecht slaapt en zich niet lekker voelt. Tenzij hij weet dat hij anders het risico neemt dat hij zichzelf blesseert en nog vijf weken op de bank zit. Het gaat dus om vertrouwen in het algoritme, maar misschien nog wel meer om het vertrouwen tussen speler en coach. Zonder dat vertrouwen zal de speler geen eerlijke antwoorden geven en is het algoritme waardeloos.”

Maatschappelijke discussie

Hans Bos, national technology officer bij Microsoft Nederland, concludeert als laatste spreker dan ook: “Technologie is een middel, geen doel. Technologiefabrikanten hebben de plicht de maatschappelijke en politieke discussie aan te zwengelen en ervoor te zorgen dat mensen begrijpen waar dit over gaat. Daarom zijn wij volop in gesprek met de Nederlandse overheid op allerlei fronten. We gaan ook met onze klanten in discussie over de maatschappelijke acceptatie van AI.”

“Ons advies is: begin klein met algoritmes die niet ter discussie staan, zoals predictive maintenance. Zorg dat de mensen in je bedrijf op die manier gewend raken aan AI, dat ze snappen wat het is en wat het doet. En bouw daarna pas uit in richtingen waarin je meer discussie en weerstand kunt verwachten. En heel belangrijk: ga die discussies niet uit de weg, maar zwengel ze aan.”

“Zonder dat vertrouwen is het algoritme waardeloos”

Arnoud van Gemeren is hoofdredacteur van CIO Magazine, Boardroom IT en voormalig hoofdredacteur van TITM (Tijdschrift IT Management) en Outsource Magazine. Hij heeft een lange staat van dienst in de Nederlandse IT-mediawereld. Na een start bij een redactiebureau, was hij als hoofdredacteur van 1996 tot 2001 bij uitgeverij Array Publications verantwoordelijk voor diverse IT-vakbladen. In 2001 sloot hij zich aan bij een adviesbureau op het gebied van marketingcommunicatie, Beatrijs Media Group. Vanuit dit bureau bleef hij als hoofdredacteur actief, onder meer voor Sdu Uitgevers.

REAGEREN

Plaats je reactie
Je naam