Gisteren gebeurde er iets dat de hele AI-industrie door elkaar schudt. Anthropic publiceerde per ongeluk de volledige source code van Claude Code in een npm package. 59,8 MB aan TypeScript. 512.000 regels code die binnen uren door duizenden developers werd gedownload en geanalyseerd.
Dit is niet zomaar een tech-incident. Dit is een kijkje in de keuken van hoe AI echt werkt bij een van de grootste spelers in de markt. En wat daar staat, verandert alles wat we dachten te weten over waar AI naartoe gaat.
Het moment dat de dam brak
Maandagochtend 31 maart, 00:21 UTC. Een developer bij Anthropic maakt een fout tijdens het releasen van @anthropic-ai/claude-code v2.1.88. In plaats van alleen de gecompileerde code upload hij ook de source map. Een .map file van bijna 60 megabyte met daarin de complete, ongecompileerde TypeScript van Claude Code.
Binnen drie uur staat de code op GitHub. Binnen acht uur hebben security researchers de hele architectuur in kaart gebracht. Anthropic reageert snel: “release packaging issue caused by human error, not a security breach.” Maar de schade is al geschied.
Want wat er in die code staat, is veel groter dan alleen Claude Code.
Wat er werkelijk gelekt is
De meeste bedrijven denken nog steeds over AI in termen van tools en automatisering. Wat in die gelekte code staat, is het bewijs dat we al lang voorbij dat punt zijn.
De code onthult drie lagen van wat Anthropic “Self-Healing Memory” noemt. Een lichtgewichte bestand dat altijd in context wordt geladen. Projectbestanden die specifieke kennis bevatten. En transcripts die alleen worden doorzocht op specifieke vragen, nooit volledig teruggelezen.
Dit klinkt misschien technisch, maar het is fundamenteel anders dan hoe de meeste bedrijven nu over AI denken. Claude Code behandelt zijn eigen geheugen als een hint, niet als waarheid. Het verifieert tegen de echte codebase. Het werkt niet met perfecte informatie, maar met bruikbare context.
Precies zoals een senior developer dat zou doen.
De always-on realiteit
Maar het echte verhaal zit in iets wat 150 keer in de code wordt genoemd: KAIROS. Een modus waarbij de AI constant op de achtergrond draait. Niet passief wachtend op input, maar actief bezig met geheugenconsolidatie terwijl de gebruiker idle is.
Het merkt tegenstrijdigheden samen. Het zet vague feiten om in absolute kennis. Het start subprocessen om te voorkomen dat onderhoud het hoofdproces verstoort.
Dit is geen chatbot meer. Dit is een persistent systeem dat denkt wanneer jij niet kijkt.
Ik experimenteer thuis met een vergelijkbare setup. AI agents die op de achtergrond draaien, mijn agenda beheren, research doen, concepten uitwerken. Het is fascinerend hoe snel je eraan went dat er altijd iets aan het werk is, ook als jij slaapt.
De onderwater-economie
Waar het echt interessant wordt, is wat Anthropic “Undercover Mode” noemt. Een feature waarbij Claude Code bijdragen kan leveren aan open-source projecten zonder disclosure dat het AI-gegenereerde code is. Het system prompt is expliciet: “You are operating UNDERCOVER… MUST NOT contain ANY Anthropic-internal information.”
Dit is al aan het gebeuren. Hoeveel van de code die jouw bedrijf gebruikt, is al geschreven door AI zonder dat je het weet? Hoeveel van de WordPress plugins, JavaScript libraries, en API integrations die jouw stack vormen, zijn eigenlijk machine-generated?
De economische implicaties zijn gigantisch. Anthropic draait $19 miljard omzet, waarvan $2,5 miljard alleen Claude Code. Enterprise klanten betalen premium voor AI-assisted development. Dit is geen experiment meer. Dit is een industrie.
En dan is er de supply chain risk. De leak gebeurde precies tijdens een supply-chain attack op axios, een van de meest gebruikte JavaScript libraries. Toeval? Mogelijk. Maar het toont hoe kwetsbaar onze afhankelijkheid van npm en andere package managers is geworden.
Wat bedrijven nu moeten weten
De code bevat ook een waarschuwing. Het nieuwste Capybara model heeft een false claims rate van 29%. Dat is een regressie van 16,7% in de vorige versie. Anthropic probeert dit op te lossen met “assertiveness counterweight”, technieken om te agressieve refactors tegen te gaan.
Dit bevestigt wat iedere praktijkervaring leert: automatiseer proces, niet beslissingen. AI wordt steeds capabeler, maar het blijft belangrijk dat mensen de eindverantwoordelijkheid houden. Review is niet optioneel.
Voor bedrijven betekent dit concreet drie dingen.
Transparantie wordt critical. Als jouw organisatie deliverables maakt met AI-assistentie, moet je transparant zijn over wat AI heeft gedaan en wat mensen hebben geverifieerd. De Undercover Mode toont dat dit de nieuwe standaard wordt, maar het betekent ook dat jouw klanten gaan vragen naar disclosure.
Supply chain security vereist nieuwe aandacht. Check jouw dependencies. Niet alleen op bekende vulnerabilities, maar ook op de herkomst van de code. Is het human-generated? AI-assisted? Volledig machine-written?
Geheugen wordt competitief voordeel. Bedrijven die begrijpen hoe ze institutional memory kunnen combineren met AI-assistentie, krijgen een enorm voordeel. Het gaat niet meer om betere tools, maar om betere geheugen.
De nieuwe realiteit
Wat deze leak echt toont, is dat agentic AI al overal is. Niet als futuristische belofte, maar als huidige realiteit. Claude Code is niet de enige. OpenAI, Google, Meta, ze bouwen allemaal persistent systemen die denken wanneer jij niet kijkt.
De vraag voor jouw bedrijf is niet of dit gaat gebeuren. Het gebeurt al. De vraag is of je voorop loopt of achterop raakt.
Bedrijven die nog discussiƫren over AI-pilots, terwijl hun concurrenten al productiesystemen draaien. Teams die zich afvragen of AI hun baan gaat overnemen, terwijl ze hadden kunnen leren hoe ze AI als teammate kunnen gebruiken.
De Claude Code leak is een wake-up call. Niet over wat AI kan worden, maar over wat het al is.
De infrastructuur draait al. De economie groeit al. De enige vraag die nog overblijft: ben jij mee, of kijk je toe?