Hoe AI ons een samenwerkingsspiegel voorhoudt

We doen het allemaal. Iedere dag. We nemen iets aan, herhalen het een paar keer (hardop of in ons hoofd) en voor we het weten is het een waarheid geworden. Een feit. “AI gaat straks al onze banen overnemen.” Of: “AI is een hype, het levert vooral middelmatige teksten op.” Deze zinnen zijn geen feiten. Het zijn meningen, overtuigingen, soms zelfs angstreacties, die door herhaling en sociale bevestiging een soort waarheid worden. En dat is precies waar het in teams vaak spaak loopt.
Ik zie het dagelijks in de trainingen die ik geef aan teams die beter willen samenwerken. Mensen maken keuzes – of juist géén keuzes – op basis van aannames die ze zelf als feiten zijn gaan beschouwen. Het zijn geen bewuste saboteurs. Integendeel. Het zijn betrokken collega’s die het beste willen voor hun team of organisatie, maar vastzitten in hun eigen verhaal. En die verhalen zijn krachtig.
Laat ik dat illustreren met een metafoor die iedereen momenteel bezighoudt: kunstmatige intelligentie.
De AI-paradox als spiegel
De opkomst van AI legt onze menselijke neiging tot aanname-denken feilloos bloot. Enerzijds zijn er mensen die AI blind vertrouwen: “Het systeem weet het beter dan ik.” Zij nemen AI-uitvoer voor waarheid aan. Anderzijds is er een groep die AI wantrouwt en elk gebruik ervan afdoet als inferieur of zelfs gevaarlijk: “Het vervangt menselijk contact, creativiteit en nuance.”
Beide stromingen zijn gebaseerd op aannames die niet noodzakelijkerwijs stroken met de feiten. En dat is waar de vergelijking met teamgedrag wrang accuraat wordt.
Een recent onderzoek van Stanford University en MIT (2023) liet zien dat mensen die met generatieve AI-tools werken (zoals ChatGPT of DALL·E) tot 40% sneller en 20% productiever zijn, mits ze hun eigen beoordelingsvermogen blijven inzetten. Ze zijn niet afhankelijk van AI, maar gebruiken het als een aanvulling. Wat bleek? De grootste winst zat niet in ‘betere output’, maar in meer ruimte voor creatief en strategisch denken.
Anderzijds toonde onderzoek van de Universiteit van Cambridge aan dat mensen geneigd zijn AI-output te overschatten als die in autoritaire vorm wordt gepresenteerd. Een chatbot die antwoord geeft met veel zekerheid wordt sneller geloofd – ook als het antwoord feitelijk onjuist is. Dat mechanisme kennen we ook in teams: een collega met een stellig oordeel wordt sneller geloofd dan een collega die twijfelt of nuanceert. Niet omdat die eerste gelijk hééft, maar omdat hij gelijk klinkt.
Aannames beperken ons gedrag en daarmee het team
Wat betekent dit voor samenwerking? In teams zie ik bijvoorbeeld deze uitspraken voorbijkomen:
- “Hij is toch altijd tegen verandering.”
- “Zij doet nooit iets extra’s.”
- “We hebben dat al eens geprobeerd, dat werkt hier niet.”
Dit zijn geen feiten. Dit zijn conclusies op basis van eerdere ervaringen, soms ingegeven door één incident. Toch gaan mensen zich ernaar gedragen. Als ik geloof dat jij altijd tegen verandering bent, ga ik jou niet meer meenemen in een verander-idee. Zo creëer ik precies de weerstand die ik vreesde. Het is een zelfvervullende voorspelling.
AI als metafoor laat zien hoe gevaarlijk dat kan zijn. Als we AI beschouwen als almachtig of als waardeloos, handelen we er ook naar. In beide gevallen laten we kansen liggen. Of erger: we nemen beslissingen op basis van onvolledige of onjuiste informatie. Dat geldt voor technologie, maar nog veel meer voor mensen.
Van oordeel naar openheid
Door te werken met het model ‘Van feit naar fictie’ kun je eenvoudig uitspraken ontrafelen:
- Wat heb je feitelijk waargenomen?
- Welke betekenis heb je eraan gegeven?
- Hoe ben je daar naar gaan handelen?
- Wat is het effect op jou of het team?
Neem het voorbeeld van een collega die in vergaderingen vaak stil is. De aanname is al snel: “Hij is niet betrokken.” Maar stel dat hij introvert is, of meer tijd nodig heeft om informatie te verwerken? Door die eerste aanname ontstaat afstand. En als hij vervolgens geen vragen meer krijgt, wordt hij inderdaad minder betrokken. We hebben de realiteit aangepast aan onze fictie.
AI maakt precies dat zichtbaar: het systeem genereert output op basis van wat jij invoert. Als jouw vraag gestuurd is door een aanname, krijg je een antwoord dat die aanname bevestigt. AI houdt ons daarmee een spiegel voor: jouw uitkomst is maar zo goed als je vraag.
Een uitnodiging tot nuance
Wat vraagt dit van teams? Allereerst de bereidheid om eigen waarheden te onderzoeken. Om nieuwsgierig te blijven naar wat je niet weet, in plaats van je te verschansen in wat je denkt te weten. Want samenwerking ontstaat niet in gelijk krijgen, maar in samen verkennen.
AI kan daarbij zelfs een hulpmiddel zijn. Niet als vervanging van menselijk contact, maar als sparringpartner die je uitnodigt tot reflectie. Stel eens een vraag aan een AI over een collega, project of overtuiging en kijk wat je terugkrijgt. Niet om het antwoord te geloven, maar om je eigen denkproces te bevragen.
De beste keuzes zijn geworteld in feiten
Keuzes maken we allemaal. Maar de beste keuzes zijn geworteld in feiten, niet in fictie. En dat begint bij jezelf. Durf jij te onderzoeken welke ‘waarheden’ jouw gedrag sturen? Ben je bereid de aannames over AI (of over je collega) te zien voor wat ze zijn: meningen, geen feiten?
Want pas als je die bril afzet, zie je weer mogelijkheden. Voor jezelf. Voor je team. En voor de samenwerking die je écht wil.
Want samenwerken is pas echt krachtig als je vrij bent van de ketens van je eigen overtuigingen. En dat begint vandaag. Bij jou.
De header-afbeelding is gegenereerd door Google Gemini.