Artificial intelligence biedt ontzettend veel mogelijkheden, en over het algemeen vertrouwen we blindelings op de algoritmen die ons helpen in het dagelijks leven. Maar is dat vertrouwen wel terecht? Er zijn immers genoeg uitdagingen. Zo kan er sprake zijn van discriminatie, oneerlijke concurrentie, beslissingen die niet uitlegbaar zijn of er wordt gebruikgemaakt van gevoelige informatie. En in hoeverre zitten we als mens eigenlijk nog aan de knoppen, vragen Sander Klous en Frank van Praat zich af.

Laten we beginnen met de laatste vraag: hebben wij als mensen het nog voor het zeggen? Het geruststellende antwoord is: ja. Hedendaagse toepassingen van AI worden nog steeds ontwikkeld en getraind door mensen. Maar de toenemende complexiteit en alomtegenwoordigheid van algoritmen leiden tot uitdagingen. Doet het algoritme wat het zou moeten doen? Voldoet het algoritme aan bestaande wet- en regelgeving? Is het algoritme eerlijk en uitlegbaar? Leert het algoritme zichzelf de goede dingen? En worden de uitkomsten van het algoritme wel op de juiste waarde geschat?

Balans tussen innovatie en controle

Omgaan met deze uitdagingen vereist een bepaalde mate van controle. En die controle zou moeten beginnen bij de organisaties die dit soort algoritmen maken en gebruiken. Het vereist een maatwerk-aanpak, waarbij innovatie en flexibiliteit te allen tijde vooropstaan. De samenwerking tussen verschillende expertisegebieden in een organisatie is daarbij cruciaal. Hier kan het ‘three lines of defence’-model goed bij helpen.

De eerste lijn bestaat uit data scientists en ontwikkelaars: de mensen die algoritmen bedenken, bouwen, trainen en gebruiken. In principe ligt bij hen de verantwoordelijkheid om dit op een gecontroleerde en uitlegbare wijze te doen. Maar dat is niet eenvoudig, en daarom zullen risk managers, ethici en juristen uit de tweede lijn de helpende hand moeten bieden. Door het in kaart brengen van de risico’s kunnen de juiste keuzes worden gemaakt.

Voorzichtigheid is echter geboden. Het mag niet zo zijn dat innovatie en flexibiliteit worden geremd. Daarom dienen slimme keuzes te worden gemaakt en bestaande werkwijzen zoveel mogelijk te worden gerespecteerd. Ten slotte kan de derde lijn, internal audit, zijn toezichthoudende functie uitvoeren door onafhankelijk te beoordelen of de eerste lijn de getroffen maatregelen op juiste wijze uitvoert.

Waar te beginnen

Ons advies? Begin klein. Start met het onderzoeken van een algoritme dat voor de organisatie belangrijk is. Daarbij zijn er vier kernvragen die centraal zouden moeten staan.

  • Wat moet het algoritme doen?
  • Doet het algoritme wat het moet doen?
  • Blijft het algoritme doen wat het moet doen?
  • Voldoet het algoritme aan alle randvoorwaarden (is het compliant)?
De vier kernvragen

Het is goed om verder te kijken dan alleen naar de logica. Want de data die wordt gebruikt, het platform waarop is gebouwd en het proces waarbinnen het wordt ingezet zijn net zo belangrijk om mee te nemen.

Uiteindelijke doel

Wat ons betreft is het uiteindelijke doel dat betrouwbare uitkomsten van een algoritme en processen het inherente gevolg zijn van de wijze waarop je als organisatie kansen benut en de controlemiddelen die je daarvoor gebruikt. Zo blijf je als organisatie innovatief zonder onnodige risico’s te nemen, en weten gebruikers dat er veilig en vertrouwelijk met hun gegevens wordt omgegaan.

Sander Klous (klous.sander@kpmg.nl) is partner Data & Analytics en Frank van Praat (vanpraat.frank@kpmg.nl) is senior manager AI in Control bij KPMG.

Dit is het vaste redactieaccount van IT Executive. Hierachter gaan meerdere redacteuren schuil. Je bereikt ons op redactie[at]itexecutive.nl.

REAGEREN

Plaats je reactie
Je naam