AI transformeert de manier waarop teams werken. Maar het zijn niet alleen de tools die er toe doen. Zijn wat gebeurt er met het denken wanneer die tools het zware werk doen, en of managers het merken voordat de kloof groter wordt.
In alle sectoren is er een gemeenschappelijk patroon. AI-ondersteund werk ziet er gepolijst uit. De rapporten zijn schoon. De analyses zijn gestructureerd. Maar als iemand het team vraagt een beslissing te verdedigen en niet samen te vatten, wordt het stil in de kamer. De output is er, maar de redenering is geen eigendom.
Voor David, de COO van een middelgrote financiële dienstverlener, kwam het probleem aan het licht tijdens de kwartaalplanning. Meerdere teams presenteerden dezelfde overtuigende statistiek over de tijdlijnen van de regelgeving, maar die bleek niet te kloppen. Het was afkomstig van een door AI gegenereerde samenvatting waarin verouderde richtlijnen werden gecombineerd met een recent beleidsontwerp. Niemand had het gecontroleerd. Niemand had er vraagtekens bij gezet. Het klonk gewoon goed.
“We waren niet lui,” vertelde David ons. “We hadden gewoon geen proces dat ons vroeg om twee keer te kijken.”
Via ons werk adviserende teams bij het navigeren door de adoptie van AI, Jenny als executive coach, leer- en ontwikkelingsontwerper, en Noam Als AI-strateeg hebben we een duidelijk onderscheid gezien: er zijn teams waar AI de prestaties afvlakt, en teams waar het de prestaties verdiept. Het verschil is niet of AI is toegestaan. Het gaat erom of het oordeel terug in het werk wordt ontworpen.
Het goede nieuws is dat teams praktijken kunnen aannemen om te verschuiven van het produceren van antwoorden naar het nemen van beslissingen. Deze nieuwe manier van denken vertraagt de zaken niet. Het brengt de prestaties naar daar waar het er echt toe doet – en beschermt het oordeel dat geen enkele machine daarbij kan vervangen.
1. De feitenaudit: bevraag de output van AI
AI produceert vloeiende taal. Dat is precies wat het gevaarlijk maakt. Als de output gezaghebbend klinkt, stoppen mensen met het controleren ervan. Het is een patroon dat vaak wordt genoemd werkslop: AI-gegenereerde uitvoer die er gepolijst uitziet, maar de inhoud mist om onder de loep te blijven. Daarentegen wordt kritisch denken sterker wanneer teams leren AI te behandelen als niet-geverifieerde input, en niet als een eindbron.
David heeft de teams die de statistiek verkeerd hadden niet gestraft. Hij heeft het proces opnieuw ontworpen. Voordat er met enige strategische analyse vooruitgang kon worden geboekt, moesten teams een feitenaudit uitvoeren: door AI gegenereerde claims identificeren en deze valideren aan de hand van primaire bronnen zoals registraties bij regelgevende instanties, officiële aankondigingen of geverifieerde rapporten. Het mandaat ging niet over het opvangen van fouten, maar over het opbouwen van een reflex.
Gedurende zes maanden verbeterde de kwaliteit van de planningsinputs aanzienlijk. Teams begonnen zelf onzekerheid te signaleren, voordat iemand erom vroeg.
De Wereld Economisch ForumHet Future of Jobs Report van 2025 versterkt dit: bij beslissingen waarbij grote belangen op het spel staan, moet AI het menselijk oordeel vergroten en niet vervangen. Het inbedden van dat principe in het dagelijkse werk is niet optioneel. Het is een concurrentievoordeel.
Voor een tip: Begin met drie. Herzie niet het hele proces in één keer. Vraag elk teamlid om drie door AI gegenereerde claims te markeren in hun volgende product en deze naar een bron te herleiden. Houd het lichtgewicht; de gewoonte is belangrijker dan het volume.
2. De Fit Audit: vraag contextspecifiek denken
AI volgt standaard best practices. Dat is zo ontworpen. Maar generiek advies wint zelden in een specifieke situatie. De echte test voor kritisch denken is niet of een antwoord slim klinkt, maar of het past.
Rachel, managing partner bij een wereldwijd adviesbureau, merkte het meteen. Haar teams vertrouwden op AI om klantaanbevelingen op te stellen, en de resultaten waren consistent competent, maar pijnlijk uitwisselbaar. “Verbeter de communicatie met belanghebbenden. Bouw veerkracht van de organisatie op”, vertelde ze ons. “Het had voor iedereen geschreven kunnen worden. Het was voor niemand geschreven.”
Ze introduceerde een eenvoudig controlepunt. Voordat er enige aanbeveling kon worden gedaan, moest het team één vraag schriftelijk beantwoorden: waarom werkt deze oplossing hier, en niet bij onze laatste drie klanten? Ze moesten elke suggestie expliciet in verband brengen met de beperkingen van de klant, de methodologie van het bedrijf en het echte stakeholderlandschap.
De verschuiving was onmiddellijk. Teams begonnen de generieke AI-taal te verwerpen en te vervangen door een redenering die van hen was. Klantpresentaties werden scherper. Debatten kwamen in de plaats van consensus.
Gallup’s werkplekgegevens voor 2025 ondersteunt waarom dit op grote schaal van belang is. Terwijl bijna een kwart van de werknemers AI nu wekelijks gebruikt om informatie te consolideren en ideeën te genereren, vereist effectief gebruik strategische integratie, niet alleen toegang. Managers zijn degenen die die norm bepalen.
Voor een tip: Maak het mondeling. Hoewel schriftelijke geschiktheidsaudits goed zijn, kunt u een teamlid vragen om zijn aanbeveling hardop uit te leggen, in een stand-up van vijf minuten of tijdens een snelle teamcheck-in. Een verkeerde uitlijning verdwijnt snel als mensen zich niet achter gepolijste tekst kunnen verschuilen.
3. De activaaudit: maak menselijke bijdragen zichtbaar
Dit is wat de meeste managers missen: zelfs als werknemers kritisch nadenken, is dat denken onzichtbaar. Als het niet aan de oppervlakte komt, wordt het niet herkend en niet ontwikkeld.
Marcus, een VP strategie bij een technologiebedrijf, begon naast elke driemaandelijkse bedrijfsevaluatie een kort ‘beslissingslogboek’ te eisen. Geen samenvatting van wat AI produceerde. Een verslag van wat het team ermee besloot te doen.
De vragen waren eenvoudig: welke aannames heb je ter discussie gesteld? Wat heb je herzien? Wat heb je afgewezen, en waarom? Eén regiomanager gebruikte het om iets aan te geven dat de AI volledig over het hoofd had gezien: de spanning tussen omzetdoelstellingen op de korte termijn en klantbehoud op de lange termijn. Ze herschreef het analyseraamwerk om die afweging aan het licht te brengen. De review werd een strategisch gesprek in plaats van een statusupdate.
‘Het veranderde waar we naar zochten,’ zei Marcus. “We zijn gestopt met het evalueren van de output, maar zijn begonnen het beoordelen van het oordeel.”
McKinseys onderzoek bevestigt de inzet: zware gebruikers van AI melden dat ze meer cognitieve vaardigheden en besluitvormingsvaardigheden op een hoger niveau nodig hebben dan technische vaardigheden. Terwijl AI routinematig werk afhandelt, wordt de menselijke bijdrage het volledige concurrentievoordeel. Het zichtbaar maken is niet alleen goed management. Het is een strategie.
Voor een tip: Houd het logboek kort, met slechts drie tot vijf opsommingstekens. Wat was de AI-input? Wat is er veranderd in het team? Wat was het laatste telefoontje en waarom? Het doel is niet het documenteren op zichzelf: het is het denken iets te maken waar het team het kan zien, bespreken en van kan leren.
4. De snelle audit: leg vast hoe het team denkt
Kritisch denken verdiept zich wanneer mensen hun eigen redenering kunnen traceren: niet alleen de uiteindelijke output, maar ook het proces dat deze heeft gevormd. Zonder dit begint elk resultaat opnieuw. Hiermee bouwt het team institutionele kennis op.
Sarah, een partner bij een professionele dienstverlener, begon vóór elke klantpresentatie een korte procesbeschrijving te eisen. Geen samenvatting van het eindproduct. Een spoor: welke aanwijzingen zijn gebruikt, welke bronnen zijn gecontroleerd, waar de framing is verschoven en waarom.
Na elke presentatie schreven de teamleden een korte individuele reflectie: Waar veranderde mijn denken tijdens dit proces? Na verloop van tijd werden de artefacten een gedeeld leermiddel. Teams konden zien welke aanwijzingen oppervlakkige resultaten opleverden, welke herzieningen echte waarde toevoegden en hoe samenwerking het uiteindelijke oordeel vormde.
“Het maakte van experimenteren iets herbruikbaars,” vertelde Sarah ons. “Vroeger voelde elk project als opnieuw beginnen. Nu bouwen we voort op wat we al hebben bedacht.”
Het resultaat was niet alleen betere resultaten. Het was een team dat samen scherper en sneller werd.
Voor een tip: Maak een gedeelde tracker. Houd het simpel: een gedeeld document, een Notion-pagina of zelfs een Slack-kanaal. Registreer welke prompt werd gebruikt, wat werkte, wat niet, en wat u vervolgens zou proberen. Geen glijbanen, geen druk. Het doel is om te normaliseren kleine weddenschappen en gedeeld leren in realtime.
Kritisch denken met AI
AI is slechts zo krachtig als de mensen die het met opzet gebruiken. De beste teams winnen niet omdat ze over de snelste tools beschikken. Ze winnen omdat ze gewoonten hebben ontwikkeld die het oordeel in de gaten houden.
Ze vragen zich af wat goed klinkt. Ze eisen context boven consensus. Ze maken hun denken zichtbaar en leren ervan.
Voor het beheren van kritisch denken in het AI-tijdperk is het niet nodig om tools te verbieden of de normen te verlagen. Het vereist duidelijkheid over waar het denken leeft.
Het trekken van die grens tussen wat AI zou moeten afhandelen en wat menselijk moet blijven, is een van de belangrijkste het definiëren van verantwoordelijkheden van leiderschap op dit moment. AI verandert de manier waarop werk wordt gedaan. Management bepaalt hoe mensen denken terwijl ze het doen.



