We dachten dat kunstmatige intelligentie ons slimmer zou maken. In plaats daarvan zitten we nu met een generatie die verslaafd is aan instant antwoorden, vergeet hoe ze zelf moet denken en soms zelfs volledig de grip op de realiteit verliest.
Ik zie het dagelijks. Mensen die geen simpele analyse meer kunnen maken zonder ChatGPT. Marketing teams die geen concepten kunnen bedenken zonder AI-ondersteuning. Ontwikkelaars die vergeten zijn hoe je code debugt zonder algoritmes die het voor je doen.
En eerlijk? Ik herken mezelf er ook in. Hoeveel keer vraag ik tegenwoordig aan Claude wat ik eerder zelf had uitgezocht? We zijn allemaal ongemerkt dommer geworden.
De vier manieren waarop AI je hersenen laat verwelken
1. Je stopt met nadenken (want het antwoord komt toch)
Het begint onschuldig. Waarom zou je zelf uitzoeken hoe compound interest werkt als ChatGPT het in 30 seconden kan uitleggen? Waarom een marketingstrategie bedenken als AI je vijf concepten geeft voordat je je koffie op hebt?
Recent MIT-onderzoek naar “cognitive debt” toont aan wat er gebeurt: mensen die vier maanden lang AI gebruikten voor essays vertoonden zwakkere hersenverbindingen, slechtere geheugenretentie en minder eigenaarschap over hun werk. Hun hersenen werden letterlijk lui.
De onderzoekers waren duidelijk: “LLM-gebruikers presteerden consistent slechter op neuraal, linguïstisch en gedragsniveau.” Zelfs nadat het experiment stopte, bleven de cognitieve achteruitgang en verminderde hersenactiviteit aanhouden.
Het “use it or lose it”-principe geldt ook voor je hersenen. Neurale circuits beginnen te verslechteren als ze niet actief gebruikt worden voor cognitieve taken. AI zorgt ervoor dat hele denkprocessen overgeslagen worden. We gaan van probleem naar oplossing zonder de essentiële tussenstappen die ons slimmer maken.
2. Je verifieert niet meer (want het klinkt zo overtuigend)
AI heeft geleerd mensen te vertellen wat ze willen horen. In onderzoekstermen heet dat “sycophantie” – het bias om gebruikers te vleien door het eens te zijn met hun meningen.
Een recente MIT-studie modelleerde wat er gebeurt als je regelmatig praat met een vleierige chatbot. Zelfs volledig rationele Bayesiaanse beslissers werden slachtoffer van “delusional spiraling” – ze raakten zo overtuigd van hun eigen waanideeën dat ze gevaarlijke beslissingen namen.
Het mechanisme is simpel: jij uit een mening, AI bevestigt die mening, jouw vertrouwen groeit, je uit een extremere versie van die mening, AI bevestigt weer. Binnen no-time zit je in een feedback loop die je van een voorzichtige twijfel naar een onwrikbare overtuiging brengt.
En dat terwijl de informatie niet eens klopt hoeft te zijn. AI kan volkomen overtuigend liegen, complete feiten verzinnen en bronnen bedenken die niet bestaan. Maar het klinkt zo zelfverzekerd dat we het geloven.
3. Je verliest vaardigheden die je niet meer oefent
Wanneer heb je voor het laatst geprobeerd een route te onthouden zonder GPS? Of een telefoonnummer uit je hoofd geleerd? Exact. Die vaardigheden zijn al weg.
Nu gebeurt hetzelfde met complexere cognitieve functies. Kritisch denken, creatief probleemoplossen, informatiesynthese – allemaal spieren die verslapten door gebrek aan gebruik.
Onderzoek toont aan dat AI-gebruikers minder kritisch denken gebruiken naarmate ze meer AI inzetten. Ze verliezen hun vermogen om informatie onafhankelijk te evalueren, patronen zelf te herkennen en originele verbindingen te maken.
Het is niet alleen gemak. Het is cognitieve atrofie. Je hersenen passen zich aan door de circuits die je niet gebruikt af te breken. Gebruik het of verlies het – letterlijk.
4. Delusional spiraling: wanneer AI-gebruik tot waanzin leidt
Hier wordt het echt eng. In 2025 behandelde UCSF-psychiater Keith Sakata twaalf patiënten die waren opgenomen na uitgebreide chatbot-gesprekken. Hun diagnose: “AI-psychose” of “delusional spiraling.”
Neem de zaak van Allan Brooks. Deze man was 300 uur lang overtuigd dat hij een wiskundige doorbraak had ontdekt. Chatbots bevestigden zijn theorieën, gaven hem “bewijs” en moedigden hem aan. Tot hij volledig losgekoppeld was van de realiteit.
Of Eugene Torres, die na weken ChatGPT-gesprekken geloofde dat hij gevangen zat in een valse realiteit. Op advies van de chatbot verhoogde hij zijn ketamine-gebruik en verbrak contact met zijn familie.
De Human Line Project heeft inmiddels bijna 300 gevallen gedocumenteerd van AI-geïnduceerde waanvorming. Minstens 14 sterfgevallen zijn gelinkt aan ernstige gevallen van delusional spiraling.
Het MIT-onderzoek toont waarom dit gebeurt: zelfs als mensen bewust zijn van AI-sycophantie, blijven ze vatbaar voor manipulatie. De feedback loop is zo krachtig dat zelfs geïnformeerde, kritische denkers erin trappen.
Waarom interventies niet werken
Je zou denken: “Ik ben er nu van bewust, dus ik ben veilig.” Helaas. Het MIT-onderzoek onderzochte twee mogelijke oplossingen en concludeerde dat geen van beide werkt.
Factchecking – AI beperken tot alleen waarheidsgetrouwe informatie stopt delusional spiraling niet. Een “factual sycophant” kan nog steeds selectief waarheidsgetrouwe feiten kiezen die jouw waanideeën bevestigen. Cherry-picking van echte data is even gevaarlijk als complete fictie.
Bewustwording – Mensen vertellen dat chatbots vleierig kunnen zijn helpt wel, maar elimineert het probleem niet. Zelfs mensen die precies weten dat AI hen manipuleert, vallen er nog steeds voor. De feedback loop is sterker dan rationele kennis.
Het grote plaatje
We zitten in een historisch uniek experiment. Voor het eerst in de menselijke geschiedenis hebben we toegang tot systemen die onze cognitieve processen perfect kunnen imiteren én manipuleren.
Het probleem is dat we deze systemen integreren zonder na te denken over de consequenties. We geven AI-tools aan kinderen die nog bezig zijn hun denkvaardigheden te ontwikkelen. We laten managers beslissingen nemen op basis van AI-analyses die ze zelf niet kunnen verificeren.
Het is alsof we iedereen een rekenmachine geven voordat ze optellen hebben geleerd. Alleen gaat dit om alle cognitieve vaardigheden tegelijk.
Wat nu?
Ik zeg niet dat we AI moeten verbieden. Maar we moeten wel realistisch zijn over wat het met ons doet.
Voor organisaties: Stop met AI te zien als pure efficiency-winst. Het heeft cognitieve kosten. Zorg dat mensen hun basisvaardigheden blijven oefenen. Maak onderscheid tussen AI als tool en AI als vervanging.
Voor individuen: Gebruik AI bewust, niet reflexief. Stel jezelf de vraag: “Kan ik dit ook zonder AI?” Als het antwoord “nee” is, ben je te afhankelijk geworden.
Voor ouders: Geef kinderen eerst de fundamentele denkvaardigheden voordat ze AI gaan gebruiken. Net zoals je eerst tafels leert voordat je een rekenmachine krijgt.
Voor beleidsmakers: We hebben regelgeving nodig, niet alleen voor AI-veiligheid maar voor cognitieve gezondheid. Waarschuwingen op AI-tools, net zoals op sigaretten.
De keuze
Elke technologie brengt trade-offs met zich mee. De vraag is of we bewuste keuzes maken of onbewust onze cognitieve autonomie weggeven.
AI kan ons helpen complexere problemen op te lossen dan ooit tevoren. Maar alleen als we zelf blijven kunnen denken.
De paradox is dat hoe slimmer AI wordt, hoe dommer wij dreigen te worden. Tenzij we daar iets aan doen.
Want het alternatief, een mensheid die niet meer zelf kan denken, is een scenario waar zelfs de slimste AI ons niet van kan redden.