Kunstmatige intelligentie is niet zo slim als de naam suggereert en kan bedrijven en gebruikers als een boemerang in het gezicht treffen. Inzicht in de inhoud en werking van de ‘black box’ is fundamenteel, zo blijkt tijdens een recente bijeenkomst van de Nederlandse Vereniging voor Arbeidsrecht. “Je moet precies weten hoe het model leert en beslissingen neemt”, aldus Anderson MacGyver’s John Ottersbach in het Utrechtse Muntgebouw.

Kunstmatige intelligentie intrigeert op twee manieren. Enerzijds zijn er de ongekende mogelijkheden op het gebied van voorspellingen en geautomatiseerde selectiemodellen, anderzijds vanwege de vele ethische, economische, maatschappelijke en ook juridische vraagstukken die toepassing met zich meebrengt. Het onderwerp leeft binnen het arbeidsrecht. Het evenement in Utrecht komt stoelen tekort.

Volgens John Ottersbach, datascientist en managementconsultant bij Anderson MacGyver, draait de vraag vooral om wat er in de black box zit. Kunstmatige intelligentie is volgens de openingsspreker feitelijk vrij dom. Alles draait om een combinatie van rekenkracht, een voldoende hoeveelheid data en met name scherp inzicht in de specifieke context, om via de juiste modellen tot niet-controversiële uitkomsten te komen.

Die benodigde domeinkennis moet voorkomen dat organisaties, die zo’n zwarte doos met logica loslaten op de data, de verkeerde conclusies trekken en mensen onterecht benadelen. De bewijslast ligt in zulke gevallen immers bij het bedrijf, zo blijkt later tijdens de bijdragen van de arbeidsrecht-specialisten Marko Jovović en Jaap van Slooten.

Wetenschap

Eerst de theorie. John Ottersbach vertelt over de waarde van kunstmatige intelligentie voor de wetenschap, om vervolgens de koppeling te maken naar de dagelijkse praktijk. “Vanuit Anderson MacGyver werken we dagelijks aan een realisatie van de digitalisering voor klanten uit verschillende sectoren. Zo kommen we ook regelmatig bij advocatenkantoren. We helpen bij het ontwikkelen van een strategie, de inrichting van de organisatie en we kijken welke technologieën en partners daar het beste bij passen.”

Ottersbach heeft een wetenschappelijke achtergrond. “Bij CERN in Genève heb ik met mensen vanuit de hele wereld geholpen antwoorden te vinden op fundamentele vragen over het heelal en de natuur. Hiervoor moeten ongekende hoeveelheden data uit de deeltjesversneller-experimenten worden geanalyseerd. Wat dat met kunstmatige intelligentie te maken heeft? Ook hier worden verschillende data-analysetechnieken ingezet, waaronder algoritmes uit het KI-domein.”

Buzzwoorden

Eerst schetst Ottersbach de spanning tussen wetenschappelijke waarheden en de invloed van marketing en commercie, die feiten veelal vervormt tot fictie. Ook ten aanzien van kunstmatige intelligentie wordt door bedrijven en adviesbureaus volop met begrippen en getallen gestrooid om producten en proposities interessanter en aantrekkelijker te doen lijken.

“De zwarte doos verwerkt de erin gestopte data tot een bruikbaar resultaat”

De spreker demonstreert dit aan de hand van een op het eerste gezicht serieus lijkende video met een aaneenschakeling van gezwollen taal vol buzzwoorden. Het duurt niet lang voor je beseft dat het een persiflage betreft: marketeers en bedrijven die inspelen op angst en opportunisme. “Allemaal containerbegrippen waar je niets wijzer van wordt”, verduidelijkt de consultant. “De grote gemene deler is de ongelooflijke en ongehoorde explosie van data. Elke minuut wordt er 400 uur aan YouTube toegevoegd. Op Tinder worden elke minuut een miljoen mensen beoordeeld met een vinger-swipe.”

Raffinage

“Data is de nieuwe olie”, vervolgt Ottersbach. “Ruwe olie, want onbewerkte data is ontzettend smerig, vol van fouten en inconsistenties. Datakwaliteit is altijd een belangrijk punt van aandacht. Olie krijgt pas waarde als deze is geraffineerd tot benzine, kerosine of basismateriaal voor plastic.” Voor data geldt hetzelfde: nullen en enen leveren pas na bewerking waardevolle informatie op. Dat kan op twee manieren: via klassieke statistiek of met computer-ondersteunde ‘data-mining’ met algoritmes en zelflerende mechanismen. “De zwarte doos verwerkt de erin gestopte data tot een bruikbaar resultaat. Dat resultaat is echter veel lastiger verifieer- en uitlegbaar dan in het geval van de klassieke statistische methodes.”

Terug naar de praktijk bij CERN, waar twee teams zich tijdens de experimenten bogen over de gegenereerde data. Waar het eerste team gebruik maakte van datamining, interpreteerde het tweede de data op de klassieke wiskundige manier. De miners vonden uiteindelijk met enkele weken voorsprong het gezochte Higgs-deeltje, al hield men dat nog even geheim tot ook na klassieke verwerking het deeltje was gevonden. “Zekerheid en geloofwaardigheid van een ontdekking zijn cruciaal”, aldus Ottersbach.

Kunstmatige domheid

De spreker blijft bij voorkeur weg bij de talloze en continu veranderende definities van kunstmatige intelligentie. In de praktijk blijkt namelijk altijd sprake te zijn van een neuraal netwerk dat de inputdata verzamelt, rekenkundig verwerkt en uiteindelijk iets concludeert of ordent. Om die uitkomst van waarde te laten zijn, moet dit netwerk gemodelleerd worden. Dat wil zeggen: zodanig aangepast en gevoed dat de uitkomsten daadwerkelijk in lijn zijn met de onderliggende vraag.

Dit gebeurt door de selectie van de juiste variabelen in een dataset en een zelflerende mechanismen. Bijvoorbeeld door een systeem voor beeldherkenning zo vaak een huis of een fiets te tonen, dat het op een gegeven moment ‘weet’ wat een huis of een fiets is. Hiervoor heeft zo’n algoritme meestal duizenden voorbeelden nodig. “Eigenlijk is dit kunstmatige domheid, omdat een klein kind dit al na een of twee keer doorheeft”, zegt Ottersbach. Hoewel de marketing hier handig ‘intelligentie’ van maakt, kun je dit objectief gezien nauwelijks zo noemen.

Businesscontext

De Anderson MacGyver-consultant noemt enkele praktijkvoorbeelden: capaciteitsplanning bij een bloemenveiling. Maar ook de selectie van de juiste kandidaten of ondersteuning van de rechtspraak. “Dat vraagt om de juiste kennis en kunde van de operationele context om het neurale netwerk naar behoren te laten functioneren.”

Er staan binnen kunstmatige intelligentie drie dingen centraal: de juiste data, de juiste analyse en de juiste context. De laatste blijkt in de praktijk vaak de meest onderschatte te zijn. Het idee van ‘ik stop al mijn data in een zwarte doos en er komen meteen alle waardevolle inzichten uit’ is een misconceptie, zo zegt Ottersbach. “Je moet weten wat je zoekt om het te kunnen vinden. Bij capaciteitsplanning bij voorbeeld, zoek je naar de variabelen die bepalend zijn voor vraag en aanbod, om zo de businesscontext te vangen in data.”

Betrouwbaarheid

In de regel wordt de foutmarge van de voorspellingen kleiner wanneer de hoeveelheid beschikbare data toeneemt. Maar soms helpt juist het weghalen van data, bijvoorbeeld als het gaat om gegevens uit een inmiddels veranderde en achterhaalde werkelijkheid. Met andere woorden: hoe meer data, hoe nauwkeuriger het neurale netwerk, mits de data en het model aansluiten op de realiteit van dat moment.

Kunstmatige intelligentie kan helpen bij het inschatten van de toekomst. Maar iedereen moet zich volgens de spreker realiseren dat dit gebeurt op basis van de data en logica uit het verleden. “De echte toekomst is sowieso nooit te voorspellen. Je kunt de uitkomsten hooguit gebruiken om op mogelijke toekomstige gebeurtenissen en omstandigheden te anticiperen.”

Superpower

Is kunstmatige intelligentie binnen HR efficiënt of gevaarlijk? Om die vraag draait de presentatie van technologie-ondernemer Siert Akel, die een keur van technologieën en mogelijkheden voor het sneller en simpeler recruteren en onboarden van personeel bespreekt. “HR kan niet meer zonder HR-tech”, stelt hij bij aanvang. Al hangt het succes van het gereedschap wel af van de manier waarop het wordt ingezet.

Volgens Akel geven data en intelligente systemen de gebruiker ‘superpower’, door op basis van ervaringen uit het verleden voorspellingen te doen over hoe een kandidaat of medewerker in de toekomst presteert en functioneert. “Daarmee kun je je bedrijf steeds verder verbeteren. Je weet welke mensen nu bij het bedrijf passen, maar ook over vijf jaar.”

“Wanneer het systeem te veel een black box is, loop je als onderneming een risico”

Naast intelligentietests en selecties noemt Akel video-analyse van sollicitatiegesprekken of van gewone besprekingen, waarbij aan specifieke gelaatsuitdrukkingen of gedragingen waardes worden toegekend. Sollicitanten die relatief veel fronsen, halen bijvoorbeeld vaker hun verkooptargets. Of juist niet. Ook kan gesproken en geschreven tekst uit gewone conversaties worden gebruikt voor sentimentanalyse. “Als je weet wie je moet aannemen, weet je ook wie je moet ontslaan.”

Tegenbeweging

Het ongemak in de Utrechtse zaal is hoorbaar en voelbaar. Het ontbreken van de menselijke maat kan volgens velen tot onethische en ongewenste effecten leiden. Denk aan het ongewild bevoordelen of benadelen van mensen met bepaalde kenmerken op het gebied van geloof, afkomst of geboorteplaats. Dat kan – zoals ook Ottersbach stelt – voorkomen worden door het gehanteerde model ‘bij te stellen’, al vereist dit de al besproken inhoudelijke en contextuele deskundigheid. Akel: “HR kan niet meer zonder HR-tech, maar HR-tech kan inderdaad evenmin zonder HR.”

Is dat voldoende om fouten, vragen en daarmee een tegenbeweging te voorkomen? Waarschijnlijk niet, zo blijkt ook uit de presentatie van Stibbe’s Marko Jovović, die onderzoek doet naar het snijvlak van geautomatiseerde besluitvorming en diverse vormen van recht. Hij zoomt in op het begrip ‘algoritmische discriminatie’: mogelijke vooringenomenheid van algoritmes, bijvoorbeeld die worden gebruikt voor het selecteren en belonen van mensen.

Bewijslast

“De wet- en regelgeving rond gelijke behandeling is een fundamenteel uitgangspunt van onze rechtsstaat”, aldus Jovović. Daarbij wordt volgens hem onderscheid gemaakt tussen directe en indirecte discriminatie. In het tweede geval worden mensen met een bepaald kenmerk bijzonder getroffen zonder dat direct naar dat kenmerk wordt verwezen. Dat kun je legitimeren wanneer het middel dat je inzet (bijvoorbeeld een algoritme) een legitiem doel dient, het geschikt is voor het bereiken van dat doel en niet verder gaat dan nodig. Een legitiem doel moet bijvoorbeeld wettig en niet bewust discriminerend zijn. Of het programma geschikt is, hangt af van of het doet wat het beoogt. Of het verder gaat dan nodig, hangt ervan af of je minder discriminatoire oplossingen tot je beschikking had.

Kortom: de inzet van een algoritme dat een disproportionele impact heeft op een bepaalde groep, moet objectief gerechtvaardigd zijn. Hierbij komt nog dat wanneer iemand aannemelijk maakt dat hij of zij op basis van onjuiste weging van criteria is benadeeld, de bewijslast naar de werkgever verschuift. Die moet vervolgens bewijzen dat het systeem niet heeft gediscrimineerd – althans dat het systeem objectief gerechtvaardigd is.

Uitdaging

“Wanneer het systeem te veel een black box is, loop je als onderneming een risico”, concludeert Marko Jovović. “Hoe meer variabelen, hoe groter de zwarte doos en hoe moeilijker het wordt.” Je moet als gebruiker weten welke criteria op welke manier bepalend zijn voor de beoordeling of keuze. John Ottersbach vult aan: “Je moet precies weten hoe het model leert en beslissingen neemt.” Jovović beaamt: “De black box is de grote uitdaging.”

Om de werking van het systeem te kunnen uitleggen en vooringenomenheid ervan te voorkomen, moet het ontwikkelproces goed worden gedocumenteerd. Waarom is gekozen voor dit specifieke systeem met deze variabelen in deze configuratie? Welk legitieme doel dient dit systeem eigenlijk? Ook de impact van eventuele alternatieve, niet gekozen opties moet worden meegenomen.

Controleerbaar

Jaap van Slooten, naast advocaat hoogleraar arbeidsrecht, benadrukt eveneens dat ‘het kunnen aantonen hoe het algoritme werkt’ een harde eis wordt. Het draait volgens hem, net als bij de Algemene verordening gegevensbescherming (AVG), om eerlijke en controleerbare systemen. Bij kunstmatige intelligentie moeten de onderliggende logica, belangen en gevolgen inzichtelijk zijn. Het is denkbaar dat een bijzondere gemachtigde als neutrale beoordelaar inzicht krijgt in het toegepaste algoritme.

“Je moet precies weten hoe het model leert en beslissingen neemt”

“Kunstmatige intelligentie krijgt volgens Van Slooten grote maatschappelijke impact. Brede toepassing zal dus leiden tot filosofische vragen en nieuwe richtlijnen. Mogelijke uitgangspunten hiervoor zouden gelijke behandeling en het recht op regie over eigen leven en loopbaan kunnen zijn. “Zoals wel vaker overschatten we gevolgen op de korte termijn, terwijl we die voor de lange termijn onderschatten. Hopelijk hebben we genoeg tijd om ons mentaal en vakinhoudelijk voor te bereiden.”

Acteercursus

Volgens John Ottersbach moet er ook in technische zin nog veel gebeuren: “Wanneer je weet hoe het algoritme werkt, kun je het mogelijk misleiden. Dat is de kunstmatige domheid waar ik op doel. Wanneer zulke systemen het voor het zeggen krijgen, dan volstaat bij video-sollicitatie bij wijze van spreken een acteercursus. Gewoon even met je wenkbrauwen fronsen en je wordt aangenomen. Dat kan toch niet de bedoeling zijn.”

REAGEREN

Plaats je reactie
Je naam