Cognitive Offloading
Ik snap het, want ik heb het AI gevraagd.
"Als ik het antwoord kan vinden, denk ik dat ik het begrijp."
Cognitive offloading is luxe-uitbesteden voor je hoofd. Eerst je geheugen naar Google, nu je redeneren naar AI. Dat voelt efficiënt. Tot je iets moet doen zónder wifi. Hier ontstaat meteen de bijwerking die je stageprogramma sloopt: de Illusion of Explanatory Depth; het idee dat je iets snapt, totdat iemand zegt: “Leg even uit hoe het werkt.”
Wat is de Illusion of Explanatory Depth?
De Illusion of Explanatory Depth is het verschil tussen weten dat en weten hoe. Je denkt dat je iets begrijpt, totdat iemand vraagt: "Leg eens uit hoe dat werkt?" Dan blijkt er een enorm gat te zitten tussen "ik kan het opzoeken" en "ik begrijp het echt".
Dit kende psycholoog Frank Keil al in de jaren '90: mensen overschatten massaal hoe goed ze alledaagse dingen begrijpen. Vraag iemand hoe een rits werkt, en de meesten denken: "Natuurlijk weet ik dat. (optioneel ‘DUH’) " Maar zodra ze het moeten tekenen of uitleggen, valt het kaartenhuis in elkaar.
In het tijdperk van Google en AI wordt deze illusie opgevoerd als een Tesla met Ludicrous modus. Je hebt niet alleen het gevoel dat je dingen begrijpt die je niet begrijpt, je hebt nu ook een assistent die dat gevoel bevestigt. Google zegt: "Zie je wel, hier is het antwoord." AI zegt: "Kijk, ik heb het al voor je uitgedacht." Je brein slaat dat op als: "Ik snap het", zeker als diezelfde AI is geprogrammeerd om je te bevestigen in jouw ideeën.
Maar je snapt vooral waar de knop zit. Niet hoe de machine werkt.
Een stagiair weet perfect hoe je een TikTok opneemt. Vraag hoe TikTok in elkaar zit en ze kijkt alsof je net hebt gevraagd hoeveel druppels water er in een glas water zitten.
Waar deze bias voorkomt
Dit zie je overal waar toegang tot informatie verward wordt met diep begrip.
Bij Google: Je zoekt "hoe werkt een warmtepomp" en krijgt een heldere uitleg met plaatjes. Je leest het, knikt, en denkt: "Oké, duidelijk." Maar vraag een uur later: "Leg het eens uit aan je buurman," en je merkt dat je alleen losse woorden hebt onthouden ; compressor, koelmiddel, warmtewisselaar zonder te snappen hoe die losse elementen samenhangen. Je weet waar de uitleg staat, niet hoe het werkt.
Bij AI: Het effect is nog verraderlijker. ChatGPT geeft je een complete analyse, inclusief voor- en nadelen, stappenplan en conclusie. Het leest alsof jij het hebt geschreven. Je brein registreert: "Ik heb dit begrepen." Maar eigenlijk heb je een samenvatting van begrip gekregen, geen begrip zelf. Je hebt een transcript, geen transfereerbaar inzicht.
Totdat de klant een vervolgvraag stelt. Of de situatie nét iets anders is. Dan blijkt dat je een antwoord had, maar geen mentaal model. Je kunt herhalen, maar niet redeneren. Je kunt citeren, maar niet toepassen.
Bij stages: Dit is rampzalig. Een stagiair levert een rapport over procesveiligheid, met keurige risicoanalyses en maatregelen. Alles klopt, het ziet er professioneel uit. Maar vraag: "Waarom is deze maatregel effectiever dan die andere?" en er komt alleen: "Dat stond in de richtlijn." Of erger: "Dat zei ChatGPT”, het moderne equivalent van “dat hep op feesboek gestaan''
Er was wel output. Maar geen begrip. En in de praktijk; bij een incident, bij een afwijking, bij een klant die iets onverwachts vraagt, heb je begrip nodig, geen knip-en-plakwerk.
Individuele effecten
Voor de stagiair is dit een valkuil. Maandenlang produceert hij rapportages, analyses, presentaties – alles ziet er competent uit. Niemand test of hij het ook echt snapt. Tot die ene dag in week 11: een storing, een klant die doorvraagt, een situatie die niet in de handleiding staat.
Dan blijkt dat hij wél weet waar de informatie staat, maar niet hoe die informatie werkt. Hij kan een AI-samenvatting lezen, maar kan het niet doorvertalen naar een nieuwe context. Hij kan googelen wat het verschil is tussen twee methodes, maar kan niet zélf beredeneren welke het beste past.
Het verschil tussen informatie en inzicht wordt pijnlijk zichtbaar. En op dat moment stort het zelfbeeld in.
Je dacht dat je competent was, omdat je altijd een antwoord had. Maar je was vooral goed in vinden, niet in begrijpen. En dat voelt als falen, terwijl het eigenlijk een ontwerpfout is: niemand heeft je geleerd het onderscheid te maken. Dit effect is dus levensgevaarlijk voor een paar van de basisvoorwaarden voor intrinsieke motivatie; competentie (het gevoel ‘ik kan het’) en vooruitgang in werk (‘ik zie dat ik iets leer’). Ook autonomie staat onder druk, omdat de student het gevoel heeft dat een externe bron (google/ AI) nodig is om iets te doen of te begrijpen.
Bedrijfsbrede effecten
Als dit patroon structureel wordt, krijg je een organisatie vol mensen die denken dat ze het snappen. Iedereen kan snel produceren, niemand kan diep uitleggen. Vergaderingen worden een wedstrijd wie het beste kan parafraseren wat AI heeft gezegd. Innovatie stagneert, omdat niemand doorvraagt. Kwaliteit lijdt, omdat fouten pas opvallen als het te laat is.
Je bouwt geen leerorganisatie, maar een illusie van expertise. Iedereen lijkt competent, tot de eerste tegenslag. En dan blijkt dat je een team hebt van mensen die vooral goed zijn in Ctrl+C, Ctrl+V – mentaal én letterlijk.
Klanten merken het. Incidenten nemen toe. Maar intern denkt iedereen nog steeds: "We weten wat we doen." Want kijk, we hebben toch rapporten? Analyses? Dashboards?
Ja. Maar geen inzicht.
Waarom het gebeurt
Omdat ons brein geen onderscheid maakt tussen "ik heb toegang tot de uitleg" en "ik begrijp de uitleg". In beide gevallen krijg je een gevoel van controle en competentie. Psychologen noemen dit de fluency illusion: als informatie makkelijk toegankelijk is, voelt het alsof je het begrijpt.
Lezen voelt als leren. Opzoeken voelt als weten. En AI versterkt dat, omdat het antwoord er zo vloeiend en zelfverzekerd uitziet. Je brein denkt: "Als de computer het zo helder kan uitleggen, dan snap ik het dus ook."
Maar begrip test je niet door te lezen. Je test het door uit te leggen, toe te passen, aan te passen. En daar gaat het mis.
Google en AI zijn geen leermachines. Ze zijn antwoordmachines. Ze geven je het gevoel dat je leert, maar eigenlijk overslaan ze de belangrijkste stap: zelf worstelen met het materiaal.
Hoe je het kunt benutten
Als we weten dat mensen denken dat ze meer begrijpen dan ze doen, kunnen we dat bewust gebruiken om dieper leren te forceren.
- Vraag stagiairs om uit te leggen, niet samen te vatten. "Leg het uit aan een collega die er niks van weet." Dat dwingt tot vertalen, niet herhalen. 
- Laat ze het toepassen in een nét andere context. Als ze het echt begrijpen, kunnen ze het aanpassen. Als niet, blijkt dat meteen. 
- Gebruik de Feynman-techniek: leg het uit alsof je lesgeeft aan een kind. Als je dat niet kunt, begrijp je het zelf niet goed genoeg. 
- Bouw reflectiemomenten in: "Wat dacht je eerst? Wat bleek anders? Waarom?" Zo maak je het denkproces expliciet. 
Hoe je het kunt vermijden
Wil je doorprikken of iemand echt begrijpt of alleen maar googlet? Test niet het antwoord, maar de redenering erachter.
- Vraag "waarom" in plaats van "wat". "Wat is de oplossing?" test geheugen. "Waarom is dit de beste oplossing?" test begrip. 
- Laat stagiairs zonder hulpmiddelen uitleggen. Geen laptop, geen telefoon, geen AI. Alleen een whiteboard en een collega. Wat blijft er over? 
- Introduceer onverwachte situaties. Verander één parameter en vraag: "Wat zou je nu doen?" Wie echt begrijpt, kan improviseren. Wie alleen heeft opgezocht, blokkeert. 
- Gebruik het E-A-V-model: Eigen versie eerst, dan AI-versie, dan Vergelijken. Wat heeft AI toegevoegd? Waar zat jij ernaast? Waarom? Dat gesprek is waar het leren zit. 
- Beoordeel proces, niet alleen output. Vraag om een denk-logboek: Wat was je doel? Welke opties overwoog je? Waarom koos je deze? Wat verwierp je? Daar zit het bewijs van begrip. 
Gouden tips
- Test transfer, niet reproductie. Wie iets begrijpt, kan het in een nieuwe context toepassen. Wie het alleen heeft opgezocht, kan het alleen herhalen. 
- Laat stagiairs lesgeven. De beste test voor begrip is of je het kunt uitleggen aan iemand anders. Maak dat onderdeel van de stage. 
- Vier fouten in redenering, niet in antwoorden. Als een stagiair verkeerd redeneert maar wel zelfstandig nadenkt, is dat waardevoller dan een perfect antwoord van ChatGPT. 
- Stel de ongemakkelijke vraag: "Stel dat Google en AI morgen verdwijnen, wat kun je dan nog?" Dat is je échte competentie. 
Samenvatting
De Illusion of Explanatory Depth laat zien dat toegang tot informatie niet hetzelfde is als begrip. Google en AI geven ons het gevoel dat we dingen snappen, maar testen dat gevoel zelden. Bij stages leidt dat tot een gevaarlijke illusie: stagiairs lijken competent, tot het moment dat ze zonder hulpmiddelen moeten presteren. De oplossing? Test niet het antwoord, maar de redenering. Vraag niet wat ze weten, maar hoe ze denken.
Je kunt niet uitbesteden wat je niet begrijpt. En je begrijpt pas echt iets als je het zonder Google kunt uitleggen.
🧠 Je brein fopt je dagelijks; wil je leren terugfoppen? Boek mijn lezing Breinpaadjes en ontdek hoe denkfouten en AI-algoritmes onze beoordelingen kleuren.
🧩 Deze pagina hoort bij de Biases bij Stage-bibliotheek van Maarten Brand; over denkfouten, stagebegeleiding en praktijkleren.
FAQ
1) Is het Google/AI-effect erg? Ik leer toch sneller?
Kort: sneller is niet hetzelfde als beter.
Je vindt een antwoord, maar snapt het vaak minder diep.
Doe: laat de stagiair dezelfde taak doen met één kleine wijziging. Kan die het dan nog? Ja = begrip. Nee = alleen opgezocht.
2) Hoe prik ik de Illusion of Explanatory Depth door?
Kort: laat uitleggen, niet samenvatten.
Doe: “Leg dit in 3 stappen uit aan een collega die er niks van weet. Zonder laptop/telefoon.”
Kijk of ze kunnen zeggen: doel → opties → keuze (en waarom).
3) Wanneer helpt AI dan wél?
Kort: als hulpmiddel, niet als brein.
Doe (regel): E-A-V
- Eigen eerste versie 
- AI-voorstel erbij 
- Vergelijken & verbeteren 
 Laat ze noteren: Wat voegde AI toe? Wat klopte niet? Wat kies jij nu en waarom?
Deze tekst is met ivm de opkomst van AI (handmatig!) ge-update in september 2025.
Bronnen
Sparrow, B., Liu, J., & Wegner, D. (2011). Google’s Effects on Memory. Science.
https://www.science.org/doi/10.1126/science.1207745Henkel, L. A. (2014). Point-and-Shoot Memories. Psychological Science.
https://journals.sagepub.com/doi/10.1177/0956797613504438Overzicht Cognitive offloading:
https://en.wikipedia.org/wiki/Cognitive_offloadingHechinger Report: Students offload critical thinking to AI
https://hechingerreport.org/proof-points-offload-critical-thinking-ai/
