Door Frank Kunneman
Wat moet een commissaris met kunstmatige intelligentie? Je hoeft geen AI-systeem te kunnen bouwen. Je hoeft niet zelf te coderen. Je hoeft niet eens te begrijpen wat het is. Wat dan? Je moet begrijpen dat het er is. En dat het mee bestuurt. Eerst was er automatisering: menselijke handelingen werden herhaald door systemen. De boekhouder kreeg een spreadsheet. De loketmedewerker een script. De raad van commissarissen (RvC) kreeg rapporten met grafieken.
Toen kwam de digitalisering: gegevens werden vloeibaar, processen gingen door kabels, infrastructuren werden digitaal. Afdelingen werden datastromen. Grenzen vervaagden. Informatie was niet meer een rapport dat in een la lag, maar wat in de cloud stond. Nu staan we op de drempel van iets wat wezenlijk anders voelt: systemen die niet alleen uitvoeren, maar ook ‘meedenken’. AI. Kunstmatige intelligentie. Zelflerende algoritmen die patronen herkennen, conclusies trekken, risico’s inschatten. Niet op basis van menselijke redenering, maar op basis van data. Veel data. Wat betekent dat voor toezicht?
Antwoord: niet veel. De kern van toezicht blijft wat hij altijd was: het zorgvuldig bewaken van legitimiteit, continuïteit, en het moreel kompas.
Het speelveld is intussen wel veranderd. Je houdt nu toezicht op iets wat soms niet zichtbaar is. Wat beslissingen voorbereidt zonder dat iemand het doorheeft. AI schuurt aan de rand van autonomie. Stel je voor: een woningcorporatie gebruikt een AI-systeem om huurders te beoordelen op betaalrisico. Dat klinkt efficiënt. Tot blijkt dat bepaalde wijken systematisch negatief scoren. Niet op gedrag, maar op achtergrondkenmerken. Dan is het ineens niet meer een rekentool, maar een maatschappelijke machine. En wie kijkt daar naar? Of een ziekenhuis dat via AI prioriteit geeft aan patiënten. Sneller, goedkoper, minder foutgevoelig. Tot blijkt dat het systeem leert van oude data, waarin onbedoeld een voorkeur zat voor jonge, mannelijke patiënten. De bias wordt opnieuw verpakt. En niemand ziet het. Daar begint toezicht. Niet bij de techniek, maar bij de vraag: is dit uitlegbaar? Is dit rechtvaardig? En wie controleert dit?
Toezicht op AI betekent dat je als RvC op tijd in gesprek gaat met het bestuur. Niet pas als er een incident is, maar bij de ontwikkeling ervan, de invoering, het eerste experiment. En dat je het bestuur helpt de juiste vragen te stellen - ook als de antwoorden technisch ingewikkeld zijn. Vraag het bestuur bijvoorbeeld om een overzicht van AI-toepassingen binnen de organisatie. Wat is al in gebruik? Wat staat gepland? Zorg dat AI regelmatig wordt besproken in de risicoanalyse en in de interne auditplanning. Laat in de zelfevaluatie van de raad reflecteren op eigen kennis over technologie: is er voldoende scherpte? En vooral: geef als raad het goede voorbeeld door nieuwsgierig te blijven. Door vragen te blijven stellen. Door geen genoegen te nemen met ‘dat doet het systeem voor ons’. Vaak wordt dit in raden ‘opgelost’ door in het profiel van de raad iemand op te nemen met ‘kennis van technologische systemen’, een ‘AI-expert’. Met alle respect: daar heb je niet zo veel aan. Je moet als raad beseffen dat effectief toezichthouden op technologische ontwikkeling geen experts vereist. Het vereist gezamenlijk toezien op iets nieuws. De aard van het toezicht verandert niet. Wat verandert is waar je naar moet kijken, niet hoe je moet kijken. AI is geen bedreiging voor toezicht. Maar het is wel een stress-test. Op alertheid. Op rolvastheid. Op gezamenlijke verantwoordelijkheid.
Toezicht op AI is gewoon toezicht. Het is dezelfde taak, in een andere jas. Je hoeft niet technisch te zijn. Maar je moet wel principieel zijn. En helder. Als een systeem bijstuurt, moet iemand bijsturen op het systeem. En als het bestuur verdwaalt in data, moet de raad het kompas zijn dat koers houdt. Toezicht is: de technologie durven bevragen. Omdat achter elke lijn code een beslissing schuilt. En achter elke beslissing een mens.
Frank Kunneman (frank@ frank.kunneman.com) is advocaat op Curaçao en expert op het gebied van corporate governance.