Naar verantwoorde AI met juiste governance

Erik Beulen

31 januari 2023

De groei van kunstmatige intelligentie die binnen organisaties steeds meer bepaald wordt door samenwerking met externe partijen, zet door. Vanwege de maatschappelijke risico’s die dit met zich mee kan brengen, is aandacht voor de governancestructuur rondom de ontwikkeling van kunstmatige intelligentie noodzakelijk.

Wat is er naast formele governance nodig om de risico’s van artificial intelligence aan te pakken en tegelijkertijd het volledige potentieel te benutten? Deze blog gaat in op de noodzaak van, en mijn wetenschappelijk onderzoek naar aanleiding van deze vraag.

De risico’s van kunstmatige intelligentie

Uit de korte geschiedenis van kunstmatige intelligentie (AI) blijkt dat verkeerde besluitvorming op basis van inzichten en gegevens verkregen uit AI, de waardecreatie van deze razendsnel ontwikkelende informatietechnologie in gevaar brengt. Nog zorgwekkender is het onjuiste gebruik van kunstmatige intelligentie dat al meerdere malen maatschappelijke schade heeft veroorzaakt. Denk aan Cambridge Analytica dat in 2016 voor Leave.EU en de UK Independence Party persoonlijke gegevens van miljoenen Facebook-gebruikers verzamelde zonder hun toestemming. Of het IBM-fotoschrapschandaal in 2019 waarbij het informatietechnologiebedrijf rond 1 miljoen foto’s van menselijke gezichten van de online fotohostingsite Flickr zonder toestemming vrijgaf om een algoritme voor gezichtsherkenning te verbeteren. Of het toeslagenschandaal bij de Belastingdienst waarbij op basis van onjuist gebruik van kunstmatige intelligentie, etnische minderheden onevenredig uitkeringen werden ontzegd en beschuldigd werden van fraude. Als gevolg van dit schandaal trad het Nederlandse kabinet januari 2021 af.

Het potentieel van kunstmatige intelligentie

Tegelijkertijd toont marktonderzoek van KPMG uit 2018 aan dat de marktomvang van kunstmatige intelligentie in 2025 uitgroeit tot 232 miljard dollar. Momenteel is dit slechts 12,4 miljard. Verder laat het McKinsey’s onderzoeksrapport uit 2020 zien dat de adoptie van kunstmatige intelligentie het hoogst is in product- en dienstontwikkeling en serviceactiviteiten. De belangrijkste trends die wereldwijd onderzoeks- en adviesbureau Gartner in 2020 signaleert zijn: slimmere, snellere, meer verantwoorde kunstmatige intelligentie en de overschakeling van proefprojecten naar het operationaliseren van kunstmatige intelligentie door 75 procent van de ondernemingen in 2024. Deze ontwikkelingen zullen volgens Gartner een vervijfvoudiging van streaminggegevens en analyse-infrastructuren stimuleren.

Opnieuw nadenken over kunstmatige intelligentie

Het enorme potentieel van kunstmatige intelligentie en tegelijkertijd de enorme impact van verkeerde besluitvorming en onjuist gebruik van deze technologie, vergroot de behoefte om antwoorden te vinden op de vraag: hoe kunnen de risico’s van kunstmatige intelligentie, zoals privacy- en concurrentierisico’s, inbreuk op antitrustwetten en de omgang met ethische kwesties, worden aangepakt? Organisaties zullen opnieuw moeten nadenken over het gebruik van AI evenals over hun samenwerking met externe partijen op dit vlak om het volledige potentieel van data en inzichten te benutten. Enkel formele governance van ontwikkelingen rondom AI is niet voldoende. Of is het verstandig dat organisaties eerst antwoorden vinden op prangende vraagstukken voordat ze besluiten volledig datagestuurd te worden?

Formele governance als uitgangspunt

In de formele goverance zijn contracten en servicelevel agreements de belangrijkste elementen. Uit mijn onderzoek komen twee belangrijke formele governance observaties: intellectueel eigendom en ervaringsgebaseerde serviceniveaus in plaats van op statistieken gebaseerde serviceniveaus. Voor een goede beheersing is het essentieel dat het eigendom van de organisatiespecifieke kunstmatige intelligentie-algoritmen bij de organisatie blijft. De niet-specifieke kunstmatige intelligentie kan worden overgedragen aan de serviceproviders om innovatie mogelijk te maken en het 1:N-bedrijfsmodel van de serviceprovider te waarborgen, zonder de strategische en zakelijke belangen van hun klanten in gevaar te brengen. Deze splitsing maakt het co-creëren van innovatie mogelijk en resulteert in gezamenlijk intellectueel eigendom.

Vergroten van wederzijds vertrouwen

De ervaringsgebaseerde serviceniveaus verlagen niet alleen de transactiekosten maar beperken ook het opportunisme ex-post leveranciers. Tegelijkertijd worden prikkels gecreëerd voor wederzijds coöperatief gedrag. Met andere woorden: door ervaringsgerichte serviceniveaus toe te passen, vergroten klanten en dienstverleners op basis van het gezamenlijke ontwikkelingsproces van kunstmatige intelligentie het vertrouwensniveau. Daarom bevorderen ervaringsgebaseerde serviceniveaus ook relationele governance.

Relationele governance als aanvulling

Goed gemanagede uitbestedingsrelaties hebben een positief effect op de mate van vertrouwen tussen klant en dienstverlener bij het gezamenlijk ontwikkelen van AI-oplossingen. Het creëren van solidariteit is essentieel. Daarmee wordt dankzij wederzijdse anticipatie een bilaterale benadering van gezamenlijke innovatie gestimuleerd, Verder zijn wederzijdse commitment-formulieren een voorwaarde en ondersteunen dienstverleners die proactief communiceren een betrouwbare relatie met hun klanten en verminderen informatieasymmetrie. Dit is essentieel bij de ontwikkeling van innovatieve technologieën, zoals kunstmatige intelligentie.

Meer ethiek met psychologisch contract

Het psychologisch contract is een essentieel onderdeel van de relationele governance. Het zorgt voor een verdere vermindering van informatieasymmetrie en brengt het klantbelang in evenwicht met het commerciële belang van dienstverleners. Bovendien nodigt het psychologisch contract organisaties en hun dienstverleners uit om ethische onderwerpen aan te pakken. Op deze manier wordt fysieke of emotionele schade aan burgers/klanten die persoonlijke data verstrekken voorkomen, of kunnen zij voorafgaand ingelicht worden over mogelijke schade daarvan. Verder draagt het psychologisch contract bij aan een neutrale houding van zowel medewerkers van de eigen organisatie als van de dienstverleners zodat het gegevensverzamelingsproces niet wordt belemmerd door vooroordelen of meningen. Dit zal een grote bijdrage leveren aan verantwoorde kunstmatige intelligentie, nu en in de toekomst. Zekerheid kan echter niet van de ene op de andere dag worden bereikt.

Kunstmatige intelligentie pauzeren of niet pauzeren – dat is de vraag

Voor alle duidelijkheid: pauzeren is geen optie, innovaties moeten worden aangemoedigd. Maar wél goed worden beheerd. Daarom is naast formele governance ook aandacht voor relationele governance en het bijkomend fysiologisch contract noodzakelijk. Het is van groot belang dat organisaties zich richten op het opbouwen van vertrouwen rondom ethische principes en het implementeren van verklaarbare en transparante kunstmatige intelligentie-algoritmen. Dit geldt ook voor overheidsorganisaties. De Digital Service Act Package, aanstaande wetgeving van de Europese Unie, is daar een goed hulpmiddel voor. Deze wetgeving biedt de infrastructuur voor het bouwen van kunstmatige-intelligentiesystemen. Enkel deze maatregelen zullen de plooien van kunstmatige intelligentie gladstrijken. Het stelt organisaties in staat het volledige potentieel van gegevens en inzichten te benutten en oneerlijke concurrentie te voorkomen, terwijl de belangen van ons allemaal worden beschermd. Kunstmatige intelligentie moet niet alleen rechtmatig zijn, maar ook verantwoord en doelgericht.

Wetenschappelijke publicatie downloaden

Heb jij als manager digitale transformatie behoefte aan wetenschappelijk onderbouwde handvatten om de governance van kunstmatige intelligentie op een rechtmatige, verantwoorde en doelgerichte manier vorm te geven? Download de publicatie van mijn onderzoek naar de inrichting van governance bij outsourcing van kunstmatige intelligentie.

Beeld: Deepmind Artist: Domhnall Malone

Gerelateerde artikelen

Nederland meest volwassen qua toepassing AI in EMEA

Nederland meest volwassen qua toepassing AI in EMEA

Het Nederlandse bedrijfsleven is vol vertrouwen over de huidige kennis en vaardigheden op het gebied van AI. Tegelijkertijd beseffen organisaties dat investeringen noodzakelijk zijn. Hierop duidt onderzoek in opdracht van ServiceNow onder ruim 2.000 leidinggevenden in de EMEA-regio.

CMO’s omarmen genAI ondanks gebrek aan diepgaande kennis

CMO’s omarmen genAI ondanks gebrek aan diepgaande kennis

Pakweg negen van de tien organisaties wereldwijd willen tegen 2025 investeren in generatieve AI voor hun marketing. Desalniettemin zegt 90 procent van de chief marketing officers (CMO’s) dat zij genAI en de invloed ervan op bedrijfsprocessen nog niet volledig begrijpen. Hierop duidt een onderzoek in opdracht van SAS.

Generatieve AI zorgt pas in 2025 voor meer groei

Generatieve AI zorgt pas in 2025 voor meer groei

De hooggespannen verwachtingen rond generatieve AI vertalen zich nog niet in toenemende groei voor de Nederlandse ICT-sector. Wel investeren bedrijven in de sector veel in nieuwe softwaretoepassingen. Daarop duidt onderzoek door ING Research.