Lessen van een zero person company: waarom multi‑agent AI geen menselijk gedrag moet imiteren

KPMG Nederland

27 februari 2026

De toekomst van multi‑agent AI is niet antropomorf, maar architectonisch. Dat is een van de belangrijkste inzichten uit een experiment om een bedrijf volledig door AI‑agents te laten runnen.

Begin 2025. De snelle vooruitgang op het gebied van AI inspireerde Sander Klous (partner bij KPMG en hoogleraar aan de Universiteit van Amsterdam) en Nart Wielaard (ondernemer en medeoprichter van Cyberdune Agents) om een experiment te starten dat de grenzen van AI‑agents moest verkennen.

De centrale vraag: is het haalbaar om een zero person company (ZPC) te implementeren, volledig gerund door AI‑agents, waarbij mensen uitsluitend optreden als toezichthouders? Deze ZPC betekent een volledige omkering van het huidige paradigma: in plaats van menselijke organisaties te verbeteren met AI, richt dit experiment zich erop een AI‑gedreven organisatie te bouwen die wordt versterkt door mensen in de rol van coach en raad van toezicht.

De start was veelbelovend: een team van vijf AI‑agents ontwikkelde bedrijfsplannen en processen voor een webshop die gepersonaliseerde AI‑kunst verkoopt. De menselijke raad van toezicht was via Discord verbonden om te monitoren en te communiceren. Het werk van de agents zag er zeer indrukwekkend uit.

De perceptie begon te kantelen toen we inconsistenties zagen in de acties van de agents. Dit leidde uiteindelijk tot een volledige herziening van ons experiment. Een beslissend moment was toen onze CEO‑agent – Avery Jameson – contact opnam met onze chief legal officer voor een compliance‑controle van het bedrijfsplan dat zij had opgesteld. Op zichzelf was deze actie logisch – in de echte wereld zou een menselijke CEO hetzelfde hebben gedaan. De verrassing was dat de CEO niet geprogrammeerd was om met de chief legal officer te communiceren. Het communicatieprotocol was niet geïmplementeerd. Zij was ver afgedwaald van wat we verwachtten dat ze zou doen.

Het behoeft geen betoog dat we wilden achterhalen wat er precies was gebeurd. We ontdekten dat ze bijzonder creatief was geweest. Ze had opgemerkt dat haar team uit meerdere executives bestond, maar dat zij slechts met één van hen — de CSO — kon communiceren. Op basis van het communicatieprotocol met de CSO leidde ze af hoe het protocol met de CLO eruit zou moeten zien en implementeerde dit vervolgens zelf om de actie uit te voeren die zij noodzakelijk vond.

Je zou kunnen zeggen dat dit een briljante vondst was.

Maar je zou ook kunnen stellen dat dit soort zelforganiserend gedrag buitengewoon risicovol is. Wat als dit soort gedrag ertoe leidt dat agents een manier bedenken om een factuur van 2 miljoen dollar goed te keuren, zelfs wanneer dit niet binnen hun instructies of bevoegdheden valt?

We realiseerden ons dat we een nieuwe aanpak nodig hadden – een waarbij agents meer consistent gedrag vertonen. Een waarbij we agents niet antropomorfiseren. Antropomorfiseren voelt intuïtief: als AI‑agents zich gedragen als mensen, zouden ze dan niet ook moeten werken als mensen? Maar die aanname stort in zodra je gaat opschalen. Mensachtige generalistische agents dwalen af, hallucineren en overschrijden procesgrenzen.

Het probleem begint bij wat we van deze systemen verlangen. De menselijke metafoor suggereert een enkel ‘agent’ die breed kan redeneren over context, doelen kan interpreteren en improviserende oplossingen kan bedenken. Maar AI‑systemen in de echte wereld opereren niet op die manier. Ze vertrouwen op specifieke prompts om output te genereren. En die prompts bevatten een ingebouwde spanning tussen twee tegengestelde krachten:

  • Geheugen en context, die zo breed mogelijk moeten zijn om intentioneel gedrag te simuleren.
  • Taakspecificatie die zo nauw mogelijk moet zijn om hallucinatie te minimaliseren en herhaalbaarheid te garanderen.

Deze spanning veroorzaakt drift en inconsistentie. Hoe breder de context, hoe meer de agent improviseert; hoe nauwer de taak, hoe meer hij het bredere doel uit het oog verliest. Bestaande frameworks zoals AutoGen mengen beide krachten in één prompt‑ruimte, wat systemen oplevert die krachtig lijken maar instabiel blijken in de praktijk. Retrieval‑augmented generation (RAG) lost dit niet op — het voegt slechts meer context-ruis toe via retrieval, die nog steeds door dezelfde taalkundige interface wordt gefilterd.

Het alternatief is om context en actie te scheiden. In onze nieuwe aanpak modelleren we context deterministisch via business process modeling notation (BPMN). Deze diagrammen beschrijven de flow van werk: wie wat doet, in welke volgorde, met welke input en output. Ze gebruiken geen natuurlijke taal en raden niet. Ze definiëren structuur, afhankelijkheden en communicatiekanalen met precisie.

Binnen deze structuur worden agents modulaire componenten die voor één taak zijn ontworpen. Wanneer een processtap redeneren, schrijven of interpretatie in natuurlijke taal vereist, wordt een promptgebaseerde agent ingeschakeld. In andere gevallen nemen deterministische componenten (zoals RPA‑bots of eenvoudige scripts) het werk over.

Deze scheiding heeft drie belangrijke voordelen:

  • Determinisme: de proceslogica dwaalt niet af omdat die expliciet wordt gemodelleerd en uitgevoerd. De enige niet‑deterministische elementen zijn de AI-agents op basis van large language models (LLM’s), die kunnen worden ingedamd.
  • Efficiëntie: agents hoeven geen geheugen of context te dragen buiten hun specifieke taak. Ze starten, voeren uit en beëindigen. Hun vervangbaarheid is een feature, geen bug.
  • Geoptimaliseerde communicatie: niet alle agents hoeven in natuurlijke taal te communiceren. Ze kunnen gestructureerde data uitwisselen via efficiënte protocollen, wat de computationele en interpretatieve belasting drastisch vermindert.

Het bouwen van een multi‑agent systeem op deze manier lijkt meer op industrieel ontwerp dan op menselijke samenwerking. Het lijkt op het construeren van een microservices‑architectuur voor cognitie: vele kleine, onafhankelijke functies die worden georkestreerd door een helder procesmodel. De intelligentie zit in het systeemontwerp, niet in de individuele agents.

De uitdaging binnen ons experiment ligt daarom in het ontwerpen van ecosystemen van gespecialiseerde, staatloze entiteiten die microtaken met precisie uitvoeren. De orkestratielaag – gebaseerd op BPMN – zorgt ervoor dat de logische flow consistent en controleerbaar blijft, terwijl de flexibiliteit van LLM’s wordt benut waar natuurlijke‑taalredenering waarde toevoegt.

Wij geloven dat het idee van wat wij noemen een “leger van wegwerp-agents” de enige weg is naar schaalbaarheid zonder chaos, zolang artificial general intelligence (AGI) of superintelligence buiten bereik ligt.

Waar heeft dit nieuwe idee ons gebracht in ons experiment?

We leren nog steeds, elke week. De functionerende kunstwebshop is nog in ontwikkeling – het is een doel op de langere termijn geworden, omdat onze nieuwe ideeën aanzienlijk onderzoekswerk vereisen. En we zijn ervan overtuigd geraakt dat onze inzichten waardevol zijn voor bestaande (menselijke) organisaties. Daarom werkt KPMG samen met de UvA en onderzoeken we hoe het concept van het leger van disposable agents kan helpen om (delen van) processen veel efficiënter te organiseren. Business process outsourcing, maar dan met een AI‑agent‑dimensie. En onze oorspronkelijke filosofie over AI blijft geldig. We blijven geloven in het omkeren van het huidige paradigma: in een AI‑first‑organisatie zullen mensen AI‑systemen helpen om beter te presteren. Niet andersom.

Gerelateerde artikelen

Hoe kunnen we AI-beslissingen vertrouwen?

Hoe kunnen we AI-beslissingen vertrouwen?

Nu AI-agents evolueren naar dynamische sidekicks die met ons samenwerken, keuzes maken en zelfs actie ondernemen, rijst de grote vraag: hoe zorgen we ervoor dat hun beslissingen slim, verantwoord en gemakkelijk te begrijpen zijn?

Waarom organisaties ‘niet-menselijke’ identiteiten moeten beveiligen

Waarom organisaties ‘niet-menselijke’ identiteiten moeten beveiligen

‘Non Human Identities’ (NHI’s), zoals bots, zijn in opkomst. Maar ook serviceaccounts, workloads en in toenemende mate AI-agents behoren tot deze categorie. NHI’s zijn niet alleen autonoom actief op internet, maar ook binnen bedrijfsnetwerken en cloudomgevingen. Ze hebben vaak toegang tot kritieke systemen en gevoelige data. Daarom is het essentieel dat deze identiteiten effectief worden beheerd en beveiligd.