Vorig jaar werd op pijnlijke wijze duidelijk hoe online systemen zowel bewust als onbewust vooroordelen in de hand werken. Sommige bedrijven werden er zelfs van beschuldigd dat ze doelbewust hun online advertentiepubliek aanpasten bij de zoektocht naar nieuwe medewerkers.

In andere gevallen werden ook onbedoelde vooroordelen gevonden, zoals scenario’s waarbij algoritmes de digitale advertenties voor bèta/technische functies beheerden.

Bij de ontwikkelingen in recruitment staat artificial intelligence (AI) hoog op de wensenlijst. Grote spelers als Goldman Sachs, Unilever en Hilton doen al onderzoek naar de mogelijkheden; de toekomst van AI in recruitment is dus dichterbij dan je denkt. De bijbehorende risico’s moeten daarbij wel eerst herkend en aangepakt worden. Alleen zo kun je als bedrijf het juiste talent aantrekken en je niet, al dan niet bewust, schuldig maken aan discriminatie.

Algoritmes en gekleurde data

Daar weet Amazon alles van. Het bedrijf ontwikkelde een tool op basis van AI, om cv’s te scannen en zo de kandidaten te herkennen die in aanmerking kwamen voor een gesprek. Het algoritme van Amazon vergeleek sollicitanten met hun bestaande werknemersbestand. Zo werd getracht de kandidaten te vinden die de beste match vormden met het profiel van een goede werknemer. Tot dusver niks geks.

Waar bij de inzet van het systeem geen rekening mee werd gehouden, was dat het huidige personeelsbestand uit voornamelijk mannen bestond. Daardoor nam het AI-systeem onbewust vooroordelen over vanuit de dataset. Zo kon het gebeuren dat een aantal vrouwenuniversiteiten werd beoordeeld als lagere opleidingen, aangezien maar heel weinig Amazon-medewerkers daar hun opleiding hadden genoten.

Dit is een goed voorbeeld – slechts een van velen – waarin wordt aangetoond hoe AI en machine learning (ML) beïnvloed worden door onderliggende datasets die een voorkeur bevatten voor bepaalde resultaten. Toen Amazon het algoritme probeerde te corrigeren om het vooroordeel uit te sluiten, werd maar al te goed duidelijk dat niet het algoritme debet was aan de gekleurde uitkomst, maar de dataset.

De data waarmee werd gewerkt was gebaseerd op eerder gemaakte beslissingen, en juist daarin schuilde het vooroordeel. Dat leidde ertoe dat hoezeer het algoritme ook werd aangepast, de resultaten partijdig bleven en de gewenste diversiteit bij Amazon uitbleef.

Ook wanneer de dataset die de algoritmes traint steeds verandert, kan partijdigheid optreden. Bij de meeste bedrijven wijzigt het werknemersbestand continu; medewerkers komen en gaan. Zo kan een algoritme dat verantwoordelijk is voor het werven van personeel niet consistent zijn in zijn keuzes. Een systeem kan bijvoorbeeld een cv in januari afwijzen omdat er niet genoeg overeenkomsten zijn met de huidige medewerkers.

Maar wanneer in de daaropvolgende maanden medewerkers in dienst komen die dezelfde specifieke ervaring hebben als de kandidaat uit januari, kan het zomaar zo zijn dat hetzelfde cv in juli wel als passend wordt beoordeeld.

Een duidelijk verschil tussen algoritmes en mensen is dat algoritmes niet zo goed positieve eigenschappen kunnen herkennen als wij. Het baseert beslissingen immers op datasets uit het verleden.

Maar zelfs wanneer datasets schoon zijn – oftewel vrij van voorkeuren – kunnen algoritmes vooroordelen ontwikkelen. Want ondanks dat AI-systemen heel geavanceerd zijn, kunnen ze nog steeds alleen trends destilleren uit grote datasets. Oftewel: zeldzame vaardigheden worden vaak niet herkend en gewaardeerd, simpelweg omdat ze niet vaak en niet veel voorkomen.

Vooroordelen aanpakken in slimme systemen

Helaas is er geen simpele oplossing waarmee je de geautomatiseerde systemen voor eens en altijd vrij kunt houden van vooroordelen. Sterker nog; wanneer je te veel aan de knoppen draait van een algoritme om vooroordelen tegen te gaan, kan het juist weer averechts werken. Bijvoorbeeld wanneer een algoritme wordt ‘getweakt’ om een tekort aan moedertaalsprekers binnen een bedrijf aan te pakken, kan dat – zodra het tekort is aangevuld – uiteindelijk leiden tot een uitschieter naar de andere kant.

Bewustwording is dus essentieel; bedrijven moeten beseffen dat dit een mogelijk gevolg is en automatisering en AI-procedures toetsen op vooroordelen. Hoe simpel dat ook lijkt, het rapport Making AI Responsible and Effective (pdf) laat zien dat dat nog niet zo evident is. Zo blijkt dat slechts de helft van de ondervraagde bedrijven beleid en procedures heeft waarmee ethische kwesties worden herkend en aangepakt – zij het in het oorspronkelijke ontwerp van AI-applicaties, zij het in hun gedrag zodra het systeem actief is.

Belangrijk om hierbij te vermelden is dat het voor bedrijven niet alleen ‘nice to have’ is om alert te zijn op de ethische kant van automatiseringsprojecten, maar eerder een must – er kunnen immers grote juridische gevolgen aan kleven. Zodoende voorspelde Cognizant’s Center for the Future of Work (pdf) dat er een belangrijke nieuwe rol is weggelegd binnen de compliance teams, in de vorm van een ‘algorithm bias auditor’.

Een dergelijke auditor is verantwoordelijk voor het vaststellen van richtlijnen en methodes om deze richtlijnen na te leven. Elke medewerker binnen het bedrijf moet deze moeiteloos kunnen begrijpen en uitvoeren.

Ethische toepassingen

Op het huidige punt in de AI-curve is het voor bedrijven de beste optie om AI toe te passen op systemen waarbij de uitkomst van het algoritme mensen niet ten onrechte kan benadelen. Zo moet worden gewaakt voor het gebruik van mogelijk bevooroordeelde AI-systemen bij het werven van personeel, omdat het weleens tot een onterechte negatieve uitkomst voor de kandidaat zou kunnen leiden.

Bedrijven investeren echter meer en meer in technieken en compliance-oplossingen voor dit soort taken. Dit leidt tot de aanpak van onbewuste vooroordelen die veel van de menselijke beslissingen beïnvloeden.

Dankzij een ‘algorithm bias auditor’ worden bedrijven beter in het onderscheppen van zaken die tot op heden niet aangepakt werden. Uiteindelijk komt het erop neer dat zowel bedrijven als ontwerpers van deze automatiseringssystemen meer aandacht moeten besteden aan de mogelijke impact van vooroordelen in AI. Alleen zo voorkomen we dat we slechte patronen uit het verleden herhalen.

REAGEREN

Plaats je reactie
Je naam