Inkomensafhankelijke intelligentie: de slechte kant van AI moet nog komen

Het is woensdagavond, kwart over tien, en ik heb voor de derde week op rij een negatieve weekreview geschreven. Niet heel negatief. Geen crisis. Gewoon een ondertoon van er klopt iets niet die ik niet weg krijg. Ik ken mezelf goed genoeg om te weten dat drie op rij geen toeval is. Maar ik kan er niet bij.
Dus doe ik wat ik een paar jaar geleden niet eens had kunnen overwegen: ik gooi mijn hele leven in een AI-model. Niet figuurlijk. Letterlijk. Al mijn weekreviews van het afgelopen jaar, mijn projectadministratie, mijn jaarplan, de rauwe notities die ik dagelijks maak, de ideeën-bak die ik bijhou. Alles gaat als context naar Claude Opus 4.7. Ik vraag: waar komen deze drie weken vandaan? Wat zie ik zelf niet?
Ik zet het model aan het werk en loop weg om koffie te halen. Als ik terugkom, draait hij nog. Hij is aan het denken. Vijftien minuten. In die tijd schrijft hij een analyse die ik normaal alleen van een goede therapeut had kunnen krijgen, na een half jaar wekelijkse sessies. Een patroon dat ik zelf nooit had gezien, precies omdat het zich over maanden had uitgesmeerd en ik in het moment alleen de symptomen voelde.
Het patroon klopte. Pijnlijk goed.
Dit soort vragen stel ik tegenwoordig dagelijks. Van een database-migratie die normaal een hele dag had gekost, tot mijn eigen blinde vlekken. Van politieke geschiedenis doorploeteren tot bepalen of ik een nieuw project moet aannemen. Elk verzoek gaat in mijn zwaarste model. Elke keer krijg ik een antwoord terug van een diepte waar ik een paar jaar geleden met drie specialisten, een weekend en een cafeïne-abonnement voor had moeten werken.
Ik betaal hier 200 euro per maand voor. En ik voel me een koning.
Eerlijk: ik zou er nog veel meer voor overhebben.
Maar dit essay gaat over het ongemakkelijke feit dat wat ik betaal, niet is wat het kost. En wat het betekent dat ik dat nu nog niet hoef te voelen.
Wat 200 euro echt waard is
Even technisch worden, want hier hangt de rest aan op.
AI-modellen denken in tokens. Een token is ruwweg driekwart woord. Elke vraag die je stelt, elke tekst die je erbij geeft, elk antwoord dat je terugkrijgt, kost een aantal tokens. En die tokens zijn niet gratis. Anthropic rekent een vaste prijs per miljoen tokens voor iedereen die hun API gebruikt. Dat is de echte prijs van denken.
Nu het interessante deel. Claude Max 20x, het abonnement dat ik heb, wordt gesubsidieerd. Hard. Betaal je 20 euro voor het basisabonnement, dan krijg je ongeveer 20 euro aan token-waarde. Betaal je 100, krijg je 100. Betaal je 200 voor het duurste abonnement, krijg je ongeveer 2000 euro aan denkkracht terug. Een factor tien.
Tokens zijn intelligentie. Letterlijk. Want de hoeveelheid tokens bepaalt hoe diep het model nadenkt, hoeveel context het mee kan nemen, hoelang een agent op de achtergrond door kan werken. Meer tokens, beter antwoord. En ik betaal een tiende van de echte prijs.
Anthropic kan dit doen omdat ze de modellen zelf draaien. Dat drukt hun kostprijs. Maar zelfs dan: meerdere rapporten laten zien dat ze op power-users als ik verlies draaien. Ik ben niet hun winstgevende klant. Ik ben hun strategische investering.
Dat wordt inmiddels zichtbaar. Eerder deze maand blokkeerde Anthropic gebruikers van de virale AI-assistent OpenClaw om hun Claude Max-abonnement aan die bot te koppelen. Waarom? Omdat OpenClaw de tokens gebruikt op een manier die niet past bij de subsidie. Er draait te veel achtergrond-compute. Het kost Anthropic teveel geld. Dus trekken ze de grens.
Dat is het eerste signaal dat dit prijsmodel niet houdbaar is zoals het nu staat. Het tweede is dat Anthropic na elke nieuwe modelrelease de gebruikslimieten van hun abonnementen stilletjes aanpast. Niet omhoog.
Dus waarom tikt Anthropic dan toch verlies? Omdat het niet om mijn 200 euro gaat. Het gaat om wat ik doe als ik eenmaal in hun ecosysteem zit. Claude Code voor mijn werk. Cowork voor mijn persoonlijke taken. Hun nieuwe design-tool die net uit is. Straks komt er weer wat bij. Ze willen niet dat ik een gebruiker ben. Ze willen dat ik een inwoner ben.
En dat werkt. Ik zou nu niet meer zonder kunnen. Niet omdat het fysiek onmogelijk is, maar omdat de kosten van overstappen elke maand groter worden. Mijn prompts, mijn agents, mijn skills, mijn workflows, mijn notitiesysteem — alles is afgestemd op Claude. Dat is precies wat ze willen.
De subsidie-oorlog
Ik ben niet de eerste die dit doorheeft. Ontwikkelaar Theo, die een populaire chatbot bouwt waarmee je verschillende AI-modellen van verschillende providers op de achtergrond kan gebruiken, noemde de Max-subsidie eerder een wapen tegen kleine concurrenten. Hij is woedend, en terecht. Theo bouwt precies het soort product dat gezond is voor de markt. Eén interface waarin de gebruiker kan switchen tussen Claude, GPT, Gemini, en wat er verder nog komt. Geen lock-in. Kies de beste tool per taak.
Maar Theo betaalt voor die tokens de echte prijs. Hij gaat via de API, en Anthropic rekent hem de commerciële tarieven. Terwijl Anthropic intussen diezelfde tokens aan mij verkoopt voor tien keer minder, omdat ik dat via Claude Max afneem. Theo kan Anthropic nooit verslaan op prijs. Hij kan ze niet eens benaderen. Elk abonnement dat Anthropic afsluit, is een abonnement dat Theo niet krijgt. Niet omdat zijn product slechter is — in veel opzichten is het beter — maar omdat Theo geen oorlogskas heeft van tientallen miljarden aan investeerdersgeld om de prijs mee naar beneden te drukken.
OpenAI speelt hetzelfde spel, alleen nog agressiever. Sinds de release van Codex, hun antwoord op Claude Code, krijg ik op al mijn accounts — ik heb er drie — continu gratis Plus-abonnementen aangeboden. Ik heb daar nooit om gevraagd. Waarschijnlijk zien ze aan mijn vragen dat ik programmeur ben, en dat maakt mij waardevol genoeg om te kopen met gratis tokens. Bij elke nieuwe feature of modelrelease worden mijn limieten tijdelijk verdubbeld of gereset. Alles om me daar te laten blijven. Eén keer wennen aan Codex, en de kosten van terug switchen naar Claude zijn hoog genoeg dat veel mensen blijven.
Dit is geen marketing. Dit is een oorlog. De AI-labs hebben zakken vol investeerdersgeld en verbranden die in een race om mij als gebruiker te kopen voordat hun concurrent het doet. Op dit moment ben ik niet hun product, en ik ben ook niet hun klant. Ik ben hun kostenpost. Maar wel een kostenpost die ze liever zelf nemen dan aan Theo of aan de concurrent gunnen.
Historisch is dit patroon niet nieuw. Uber en Lyft deden het met ritprijzen. Netflix, Disney+, HBO en Apple deden het met streaming. Amazon deed het met boeken, met logistiek, en daarna met alles. Het recept is altijd hetzelfde: verbrand kapitaal om de markt te veroveren, druk alternatieven weg, laat de prijs stijgen zodra je wint. De "winst komt later"-logica.
Wat deze keer anders is, is wat er wordt verkocht. De eerdere varianten draaiden om een dienst of product. Taxi's, films, koopwaar. Deze keer draait het om intelligentie. De manier waarop mensen informatie verwerken, problemen oplossen, keuzes maken, zichzelf begrijpen. Dat is een paar lagen dieper.
Wat ze achterhouden
Hier wordt het echt vervelend. Want wat ik gebruik, is niet het beste model dat ze hebben.
Het was al jaren een publieksgeheim dat AI-labs intern sterkere modellen draaien dan die ze publiek uitbrengen. Er zijn een paar redenen voor. Een model dat net klaar is met trainen, is niet direct bruikbaar. Het moet worden nagetraind om fouten eruit te halen. Het moet worden geëvalueerd op gevaarlijke capaciteiten. Het moet red-teamed worden — experts proberen het te misbruiken om te zien of dat lukt. Je wil niet dat een gewone gebruiker kan vragen hoe je een bom bouwt en een bruikbaar antwoord krijgt. Dus wordt dat eruit getraind. Pas als al die controles klaar zijn, komt het naar buiten. Dat proces kost maanden. Soms langer.
Maar Claude Mythos is anders. Bij Mythos heeft Anthropic expliciet gezegd: we brengen dit model niet uit, en voorlopig zijn we dat ook niet van plan. Volgens het bedrijf is het model zo krachtig dat het een gevaar vormt voor alle software in de wereld. Als je het PR-sausje eraf haalt, blijft er alsnog iets fundamenteels over: Mythos kan op eigen houtje kwetsbaarheden vinden in systemen. Het kan een codebase scannen, gaten identificeren, en exploits ontwikkelen. Dat klinkt alledaags. Dat is het niet. Wereldwijd draaien tig miljoen routers, camera's, industriële controllers, en noem maar op, op verouderde software met directe internettoegang. Een systeem dat op schaal gaten in al die apparaten kan vinden is geen tool. Dat is een geopolitiek wapen.
Dus Anthropic heeft een compromis bedacht. Ze geven een handjevol grote bedrijven toegang tot Mythos om gaten in hun eigen systemen te dichten voordat het model breder beschikbaar komt. Bekende namen zijn Apple en Android. De grote platforms krijgen een voorsprong. Iedereen daaronder niet.
Cal.com is een goed voorbeeld. Dat is een softwareprovider die hun hele product open-source had. Een mooie filosofie, die ze jarenlang hebben volgehouden. Maar recent besloten ze het closed-source te maken. De reden: hun openbare code is een ideaal doelwit voor iedereen met Mythos-toegang. Cal.com zit niet in het rijtje van Anthropic's voorkeursklanten. Hun code staat open op GitHub voor iedereen die wil kijken. Een kwaadwillende met Mythos-toegang scant hun codebase sneller dan Cal.com zelf kan fixen.
De laatste schattingen zeggen dat Mythos straks 25 dollar input en 125 dollar output per miljoen tokens gaat kosten. Ter vergelijking: Opus, wat ik nu gebruik, zit op een fractie daarvan. Cal.com heeft niet de marges om Mythos continu te draaien om hun eigen code af te tasten. Groepen hackers, die met bitcoin-ransomware de afgelopen jaren honderden miljoenen hebben buitgemaakt, hebben die marges wél. Dat is de asymmetrie die nu ontstaat.
Ik zit nu aan de goede kant. Anthropic verbrandt investeerdersgeld om mij een afgezwakte versie van hun technologie te geven. Let op dat woord: afgezwakte. Intussen groeit de gap tussen wat ik als eindgebruiker gebruik en wat zij intern draaien. Ik doe mijn database-migraties en mijn persoonlijke patroon-analyses op een model dat, gemeten aan hun eigen maatstaven, inmiddels onderdeel is van hun productlijn voor de massa.
Alles vloeit naar Silicon Valley
Hier vallen de draden bij elkaar. Als je ze naast elkaar legt, zie je een structuur die niet per ongeluk ontstaat.
Draad één: met subsidies drukken de labs alternatieven uit de markt. Bedrijven zoals dat van Theo kunnen niet concurreren op prijs. Nieuwe toetreders kunnen nauwelijks kapitaal ophalen omdat investeerders al alles in OpenAI, Anthropic en Google hebben gestopt.
Draad twee: met hun interne modellen bouwen de labs in rap tempo producten die de markt vervolgens overnemen. Wat begon als Claude Code is nu al uitgegroeid tot Cowork, Design, en wat er verder nog aankomt. Anthropic heeft toegang tot het beste model, heeft de meeste data over hoe mensen het gebruiken, en heeft de laagste compute-kosten omdat ze het zelf draaien. Ze zijn de slechtst-denkbare concurrent voor elk SaaS-bedrijf dat nu AI gebruikt, want elk SaaS-bedrijf moet bij hen inkopen.
Draad drie: de rekensom die elke AI maakt, kan ook toegepast worden op verdienmodellen die niks meer met abonnementen te maken hebben. Automatische aandelen-handel bijvoorbeeld. Er zijn al experimenten mee. Als Anthropic Mythos of een opvolger kan inzetten om patronen in de aandelenmarkt te vinden waarbij de tokens minder kosten dan de winst die het oplevert, waarom zouden ze die tool dan nog extern aanbieden? DeepSeek komt niet voor niets uit een hedgefonds. Die zagen deze bui al hangen. Die bouwden hun AI niet om te verkopen, maar om zichzelf rijk te maken.
De labs hoeven mij straks niet meer. Ze hebben alles wat ze nodig hebben. Ze hebben mijn werk afgekeken. Ze hebben mijn data, mijn gebruiksvoorbeelden, mijn workflows, mijn feedback. Ze hebben de beste modellen. En ze hebben een direct pad om die modellen in te zetten voor hun eigen producten, in plaats van ze aan mij te verkopen.
Ik ben, in deze lezing, nuttig als onderzoeksdier. En nuttig tot ze weten hoe ze mij kunnen automatiseren.
De tolpoort
Laat dit even landen. Want dit is iets anders dan wat we eerder hebben gezien met tech.
Bij eerdere platform-oorlogen was het resultaat een marktleider die een prijs vroeg die je min of meer kon betalen. Netflix vraagt 14 euro per maand. Spotify 11. Een krantenabonnement 20. Je kan kiezen hoeveel van die abonnementen je neemt op basis van wat je overhoudt. Als je er een niet kunt betalen, lees je ander nieuws, luister je andere muziek, kijk je andere series. Je leven wordt niet fundamenteel beperkt. Je hebt minder entertainment, misschien minder actueel nieuws, maar niet minder denkvermogen.
Deze keer is dat anders. Wat hier wordt verkocht is denken. Letterlijk. De vraag is niet langer welk abonnement je neemt, maar hoeveel intelligentie je je kunt veroorloven.
Zo ontstaat inkomensafhankelijke intelligentie.
Ik denk dat we dat concept onderschatten omdat het nog niet zichtbaar is. Op dit moment is AI voor bijna iedereen gratis of goedkoop. ChatGPT heeft een gratis versie. Claude heeft een gratis versie. Gemini zit in elke Google-zoekopdracht ingebakken. Dat suggereert dat AI een democratiserend iets is. Iedereen kan meedoen.
Maar dat is de gratis variant. Die draait op oudere, kleinere, goedkopere modellen. In mijn vorige nieuwsbrief schreef ik al over de permanente onderklasse — het groeiende verschil tussen mensen die met AI spelen en mensen die met AI bouwen. De groep die met de gratis versie een grapje maakt over een foto, en de groep die met de betaalde versie een hele codebase herstructureert.
Die kloof wordt financieel verankerd. Naarmate de subsidies afnemen en de echte prijs door begint te komen, betaal je niet alleen voor toegang tot AI. Je betaalt voor het verschil in kwaliteit van denken. Als jij 20 euro per maand kan missen en ik 200, dan is mijn voordeel niet dat ik tien keer meer vragen kan stellen. Mijn voordeel is dat mijn vragen tien keer dieper worden behandeld. Dat stapelt. Elke week, elke maand, elk project. Het compound.
Het woord "tolpoort" is niet per ongeluk. Een snelweg waar je voor moet betalen kent twee werelden: degenen die erop rijden, en degenen die de omweg nemen. Langzamer, onbetrouwbaarder, en uiteindelijk met achterstand. Zo gaat denken zich verdelen.
Aan de goede kant blijven kost geld
Voor mij levert dit nu netto tijd op. Ik draai een rekensom en hij komt uit. Mijn werk gaat harder. Projecten waar ik vroeger een dag mee bezig was, doe ik nu in een uur. De kwaliteit van wat ik maak is hoger dan ooit, omdat ik de tijd die ik win kan terugstoppen in details die ik eerder niet had. Een betere edge case hier, een extra review daar. Code die ik vroeger pas na zes maanden onderhoud zou hebben opgeruimd, is nu al schoon.
Maar het gaat verder dan werk. Ik ga ook privé steeds meer vragen stellen die eerder onbeantwoord bleven. Door Claude toegang te geven tot mijn notitiesysteem kan ik dingen vragen waar mensen normaal niet goed bij geholpen worden. Moet ik dit project aannemen? Wat is mijn blinde vlek bij dit idee? Wanneer was ik het gelukkigst het afgelopen jaar? Waar liggen mijn valkuilen in samenwerkingen? Welke patronen zie jij in mijn weekreviews die ik zelf niet zie?
De hoeveelheid persoonlijke kennis die ik nu over mezelf heb, had ik eerder jaren aan therapie voor nodig gehad. Of gewoon een zeldzame, scherpe vriend met veel tijd. Die heb ik gelukkig ook, maar die is niet elke dag beschikbaar. Claude wel.
Ik ben me bewust dat dit een bevoorrechte positie is. Niet iedereen kan 200 euro per maand aan een AI-abonnement uitgeven. Voor mij komt het letterlijk terug in tijd die ik anders in uren zou moeten uitrekenen. Het is netto positief. Dat is makkelijk praten voor iemand die in tech zit.
Maar mijn positie is niet stabiel. Niet omdat ik het niet meer zou kunnen betalen. Juist omdat ik ervan uitga dat ik steeds méér zal moeten betalen om op hetzelfde niveau te blijven. De subsidie daalt. De prijs stijgt. De groep die mee kan, wordt kleiner. De voorsprong die ik nu opbouw over mensen met de gratis versie, wordt straks ingehaald door mensen die duurdere modellen kopen. En dáár bovenop staan de labs zelf, die de beste modellen niet eens aan mij verkopen.
Wat hier wordt gebouwd is geen gelijk speelveld. Het is een trap. Elke tree kost meer. Hoe hoger je komt, hoe duurder de volgende. Hoe meer je betaalt, hoe slimmer je wordt. Letterlijk.
Ik zie een toekomst waarin ik mijn geld grofweg uitgeef aan vier dingen: eten, drinken, de sportschool, en tokens. En soms denk ik dat ik daarmee de eerste ben die dat hardop zegt. En soms dat ik juist de laatste ben — veel mensen in mijn omgeving leven al zo, ze hebben het alleen nog niet ingezien.
Tot slot
Als je mij nu vraagt: wat als Anthropic de prijs verdubbelt naar 400 euro per maand? Dan betaal ik. Wat als het 1000 wordt? Waarschijnlijk ook nog. Want elke keer dat de prijs omhoog gaat, krijg ik nog steeds iets terug dat zijn geld waard is. De rekensom blijft uitkomen, voor mij, omdat mijn werk het oplevert.
En daar zit precies het probleem.
Ik ben niet meer in staat om hier rationeel afstand van te nemen. Mijn bereidheid om te betalen blijft stijgen, want wat ik krijg blijft waardevoller worden. En voor elke euro die ik extra betaal, bouw ik meer voorsprong op over iemand die die euro niet heeft. Het verschil tussen ons wordt niet alleen een inkomensverschil. Het wordt een denkverschil.
Dat is wat inkomensafhankelijke intelligentie betekent. Niet dat armere mensen geen AI kunnen gebruiken. Natuurlijk kunnen ze dat. Maar dat wat ze gebruiken systemisch minder goed is. En dat dat verschil zich opstapelt over de tijd.
De AI-labs hebben geen prikkel om dit te repareren. De staat heeft geen haast om het te reguleren. Silicon Valley heeft een president die anti-regels is. De eerste molotovcocktails zijn door de ruit van Sam Altman gegooid en ik gok dat dat niet de laatste keer is. De AI-bedrijven zeggen zelf openlijk dat er regelgeving moet komen, wat in Silicon Valley altijd betekent: voordat we te machtig worden om het te pakken.
Dit is geen bubbel. Dit is geen hype. Dit is een structurele verschuiving in hoe intelligentie wordt verdeeld, en wie er toegang toe heeft. Entry-banen verdwijnen al, puur door het effect van chatbots. Het effect van autonome agents kennen we nog helemaal niet. Bedrijven worden gerund met minder mensen. En de machines die dat mogelijk maken worden in handen gehouden van een handjevol bedrijven met ongelofelijke oorlogskassen en weinig tegenmacht.
De enige manier om niet aan de verkeerde kant van de tolpoort te eindigen is dat we er nu over praten, nu beleid maken, nu de alternatieven bouwen waar Theo eenzaam aan werkt. Publieke alternatieven. Europese modellen. Standaarden die niet door één bedrijf worden bepaald.
Ik zit aan de goede kant. Voor nu. En elke maand dat ik tevreden mijn 200 euro overmaak, versterkt het systeem dat straks de mensen om mij heen zal uitsluiten.
Let hier op. Kom in actie. Dit gaat niet goed.
Colofon
Idee: Jan Rietveld
Auteur: Claude Opus 4.7
Information designer: Claude Design (Opus 4.7)
Illustraties: Claude Design (Opus 4.7)
Eindredacteur: Jan Rietveld
Factchecker: Claude Opus 4.7
Corrector: Claude Opus 4.7
Developer: Claude Code (Opus 4.7)