AI verplaatst ongemerkt het zwaartepunt van macht, vertrouwen en verantwoordelijkheid.
Deze blog onderzoekt wat er werkelijk verandert als we dashboards laten beslissen – en of wij als mens nog aan het stuur zitten.
Dat leek onschuldig, tot we merkten dat niemand wist wie verantwoordelijk was als het systeem ernaast zat.
Het is een scène die ik op steeds meer plekken terugzie. AI wordt geïntroduceerd als handige ondersteuning – een beetje tijdwinst hier, wat betere voorspellingen daar – maar onder de oppervlakte schuift er iets anders. Niet in de techniek, maar in macht, vertrouwen en besluitvorming. De vraag is minder: wat kan dit systeem? en veel meer: wat doet dit systeem met hoe wij mensen met elkaar omgaan?
AI is geen slimme stagiair
We praten graag over AI alsof het een soort digitale stagiair is: handig voor teksten, samenvattingen, planningen. Iets dat “naast ons” werkt, netjes binnen de lijntjes. Maar in de praktijk schuift AI mee aan tafel op drie veel fundamentelere plekken.
Allereerst bij de vraagformulering.
Voor er één regel code draait, is al besloten welke KPI’s tellen, wie als “risico” geldt, wie als “high potential”. Dat lijkt neutraal, maar het bepaalt welk mensbeeld, welke norm en welke ambitie we in het systeem gieten. Alles wat daarna komt, volgt die lijn.
Vervolgens bij de interpretatie van werkelijkheid.
Modellen bepalen welke signalen worden uitvergroot en welke verdwijnen in de ruis. Wat goed te meten is, krijgt gewicht; wat niet in het model past, raakt makkelijk ondergesneeuwd. De ervaring van een medewerker, de context van een wijk, de geschiedenis van een klantrelatie – ze verdwijnen uit beeld als het model er niks mee kan.
En tenslotte bij de verdeling van verantwoordelijkheid.
Zodra het spannend wordt, staat ineens “het systeem” tussen mensen in. “Het staat zo in het dashboard.” “Het algoritme ziet hier een verhoogd risico.” Mensen verschuilen zich daar sneller achter dan ze zelf doorhebben. Niet omdat ze kwade wil hebben, maar omdat het comfortabel is: de lastige keuze wordt gedelegeerd aan een grafiek.
We denken vaak dat AI vooral efficiënter maakt.
In werkelijkheid reorganiseert het wie mag kijken, duiden en beslissen.
Informatie-soevereiniteit: wie zit er echt aan het stuur?
Het kernbegrip dat ik in organisaties gebruik, is informatie-soevereiniteit.
Daarmee bedoel ik iets heel concreets:
- Wie bepaalt welke informatie telt?
- Wie mag het model tegenspreken – en zonder repercussies zeggen: “dit klopt niet voor deze situatie”?
- Wie is aanspreekbaar als het systeem structureel fout zit?
In veel organisaties zie ik drie terugkerende patronen.
Het eerste noem ik het model als orakel.
Dashboards worden behandeld als waarheid; wie twijfelt, voelt zich lastig. De nuance “het helpt ons om beter te kijken” verschuift ongemerkt naar “het heeft gezegd dat…”.
Het tweede patroon is “het systeem zegt het” als schild.
Moeilijke gesprekken over prestaties, risico’s of gedrag worden uitbesteed aan scores en grafieken. Het is minder confronterend om te verwijzen naar een model dan om zelf woorden te geven aan wat je ziet en voelt.
Het derde patroon is verkokerde verantwoordelijkheid.
IT implementeert, inkoop contracteert, management stuurt op uitkomsten, teams mogen “ervaren” wat het doet. Iedereen raakt betrokken, maar niemand is echt eigenaar van de vraag wat dit met mensen, cultuur en professionele ruimte doet.
Op dat moment is AI geen middel meer, maar het nieuwe centrum van zwaartekracht in de organisatie. Besluiten, gesprekken en loopbanen gaan zich om het systeem heen organiseren. En het bijzondere is: daar heeft zelden iemand expliciet “ja” tegen gezegd.
Leiderschap in een AI-tijdperk
Echt leiderschap in een AI-tijdperk gaat voor mij daarom minder over “leren werken met nieuwe tools” en veel meer over eigenaarschap over de filters van je organisatiebrein.
Elke organisatie heeft zo’n brein: een manier waarop informatie binnenkomt, wordt gewogen, gedeeld en omgezet in besluiten. Waar AI dat brein versterkt, wordt het cruciaal welke filters we erin bouwen.
Dan komen vragen op tafel als:
- Welke vragen leggen we überhaupt in het systeem? Wat vragen we níét?
- Welke aannames zitten onder onze modellen? Over mensen, prestaties, risico, succes?
- Welke ruimte creëren we om het systeem te weerleggen – en wie heeft de positie om dat daadwerkelijk te doen?
Daar zit het echte kantelpunt.
Niet bij de vraag of een tool nóg wat slimmer wordt, maar bij de vraag of we als mens en als leiderschap de rug recht houden als het systeem iets anders zegt dan ons geweten, onze ervaring of onze professionele intuïtie.
Drie vragen die vandaag al iets in beweging zetten
Je hebt geen nieuw beleidsstuk nodig om hiermee te beginnen. Drie vragen in je volgende MT-vergadering kunnen al veel blootleggen:
- Waar in onze organisatie werken we al met AI of geavanceerde algoritmes, zonder dat we het zo noemen?
- Denk aan scoringmodellen, risico-indicatoren, “slimme” selectie of planning.
- Op welke plekken gebruiken we “het systeem” impliciet als excuus om een lastig gesprek niet te voeren?
- Waar laten we een dashboard praten waar eigenlijk een mens zou moeten spreken?
- Waar moeten we expliciet maken: “hier is AI een hulpmiddel, maar de verantwoordelijkheid blijft bij ons, als mensen”?
- En durven we dat dan ook hardop te zeggen tegen medewerkers, klanten, burgers?
Dat zijn geen technische vragen.
Dat zijn vragen over cultuur, macht en moed.
Waarom ik een Quick Scan heb gebouwd
Precies om die reden heb ik een Quick Scan ontwikkeld rond AI, leiderschap en cultuur. Niet om nog een tool op de stapel te leggen, maar om zichtbaar te maken waar AI vandaag al aan je organisatie schuift, zonder dat het zo benoemd wordt.
De scan kijkt niet naar welke software jullie gebruiken, maar naar wat er gebeurt met:
- psychologische veiligheid en vertrouwen,
- patronen van verantwoordelijkheid en schuld,
- ruimte voor reflectie, twijfel en tegenspraak,
- de manier waarop identiteit, waarde en mensbeeld in systemen worden ingebouwd.
Of anders gezegd: hij kijkt niet naar het scherm, maar naar de onderstroom erachter.
De vraag is uiteindelijk niet óf AI in je organisatie landt.
Dat gebeurt al – via leveranciers, platforms, HR, finance, klantcontact.
De echte vraag is: onder welke voorwaarden laat je het binnen – en wie bewaakt die?
Als we die vraag blijven uitstellen, ontstaat er een organisatie waarin mensen zich voegen naar het systeem, in plaats van andersom. En dan is het dashboard allang live, maar is er niemand meer die zich echt verantwoordelijk voelt als het ernaast zit.
René de Baaij



