René de Baaij

From System to Meaning

AI implementeren zonder jezelf kwijt te raken 3/5

  1. AI verandert macht, rollen en onderstroom

Niet alleen systemen, ook relaties worden opnieuw ontworpen


AI herverdeelt macht en verantwoordelijkheid. Hier leg je vast wie mag overrulen, wie uitlegt en wie corrigeert.

AI wordt vaak verkocht als slimme assistent. In werkelijkheid herverdeelt het macht, verantwoordelijkheid en vertrouwen. Wie de techniek ontwerpt, ontwerpt ook relaties in de organisatie.

Drie verschuivingen

1) Wie bereidt beslissingen voor?
Waar een professional vroeger het dossier opende, levert nu een model een eerste inschatting. Vertrouw je het model of de professional? Moet afwijking worden gemotiveerd? Is tegenspraak lastig gedrag of vakmanschap?

2) Wie is aanspreekbaar?
Als iemand onterecht wordt benadeeld door een AI‑advies: wie legt uit, wie biedt excuses aan, wie kan corrigeren? Zonder helderheid ontstaat een niemandsland: “het systeem doet dit nu eenmaal.”

3) Wie bepaalt de norm?
Modellen reproduceren de geschiedenis van jullie keuzes (en biases). Wat impliciet was, wordt expliciet en schaalbaar. Willen jullie die norm houden – of juist bijstellen?

De psychologische laag

  • Leidinggevenden kunnen verlies van status of controle voelen wanneer patronen zichtbaar worden.
  • Professionals ervaren AI soms als controle of devaluatie van het vak.
  • Bestuur kan verleid worden tot sturen op dashboards – en verarmt zo de dialoog.

⠀Wat het management te doen heeft

  1. 1 Rolverdeling expliciet maken – wie blijft eindverantwoordelijk voor welke besluiten? Waar is menselijke overruling verplicht? Leg dit vast in mandaten, processen én verhaal naar binnen en buiten.
  2. 2 Tegenspraak normaliseren – spreek uit: “Het is professioneel om AI‑uitkomsten te bevragen en waar nodig te overrulen.” Vier voorbeelden waarin dat gebeurde.
  3. 3 Onderstroom bespreken – benoem angst en spanning. Combineer eerlijkheid met een serieus ontwikkelpad.

AI als spiegel

Gebruik AI om patronen zichtbaar te maken die je eigenlijk niet meer wilt: systematische benadeling, sturen op snelheid ten koste van zorgvuldigheid. Zo wordt AI instrument voor volwassenwording, niet alleen voor efficiëntie.

Wat nu, wat later, wat niet

  • Nu: maak een “overrule‑log”: waar weken professionals af van het model – en met welk resultaat?
  • Later: ontwerp een tegenspraak‑ritueel (bijv. red team‑review per kwartaal).
  • Niet: afwijking van de AI automatisch als fout behandelen.

Reflectievraag

Versterkt jullie AI‑gebruik vooral controle en hiërarchie, of juist vertrouwen en professioneel gesprek?