Gated Intelligence: Het nieuwe kastenstelsel van AI
De nieuwste modellen van Anthropic, OpenAI en Google zijn te krachtig voor het gewone publiek. We betreden een tijdperk waarin je 'clearance' belangrijker is dan je abonnement.
Op 16 april lanceerde Anthropic Claude Opus 4.7, het krachtigste model dat het bedrijf tot nu toe algemeen beschikbaar heeft gesteld. Maar wie de bijbehorende technische documentatie leest, ziet een opvallende bekentenis: dit model is bewust zwakker gemaakt dan de interne versie, genaamd Mythos. Voor het eerst in de korte geschiedenis van de huidige AI-golf geeft een grote speler toe dat de publieke versie een ‘lite’ variant is van de werkelijke technologische grens. De échte kracht blijft gereserveerd voor een select groepje partners.
Wat we hier zien is het einde van de droom van gedemocratiseerde intelligentie. De tijd dat de nieuwste modellen voor iedereen met een internetverbinding en twintig dollar per maand beschikbaar waren, loopt op zijn eind. We betreden het tijdperk van Gated Intelligence: een nieuw kastenstelsel waarbij je mate van toegang afhankelijk is van je status, je werkgever en je bereidheid om je identiteit te laten verifiëren door een techreus.
De cijfers liegen niet. Waar Claude Opus 4.7 wordt gepresenteerd als een grote stap voorwaarts, scoort de interne Mythos-versie op elke relevante test significant hoger. Op de SWE-bench, een test voor complexe programmeertaken, haalt Mythos een score van 93,9 procent. Ter vergelijking: het krachtigste publieke model van februari haalde nog maar 80,8 procent. Volgens Anthropic-onderzoeker Kelsey Piper heeft het bedrijf inmiddels unieke kennis over 'zero-day exploits' van bijna elk softwareproject dat je kent. Maar die kennis is niet voor jou; Anthropic heeft bij de training van de publieke Opus 4.7 de cybercapaciteiten juist 'differentieel gereduceerd'.
Anthropic staat niet alleen in deze beweging. OpenAI reageerde direct met de aankondiging van GPT-5.4-Cyber, een model dat specifiek getuned is voor defensieve cybersecurity. De toegang daartoe wordt streng gereguleerd via een nieuw ‘Trusted Access for Cyber’-programma. Wie volledige toegang wil, moet zich identificeren met een officieel identiteitsbewijs. Ook Google heeft zijn koers gewijzigd. Na jaren van weerstand tegen militair AI-gebruik onderhandelt het bedrijf nu met het Pentagon over toegang tot Gemini in 'geclassificeerde omgevingen'.
Het argument voor dit nieuwe kastenstelsel is veiligheid. Cyberbeveiligingsexperts zoals Alex Stamos waarschuwen in Platformer dat open-source modellen binnen zes maanden de commerciële modellen zullen inhalen in het vinden van softwarefouten. "Op dat moment zal elke ransomware-crimineel in staat zijn om bugs te vinden en te wapenen zonder sporen achter te laten," aldus Stamos. In dat scenario is het opsluiten van de krachtigste intelligentie in beveiligde kluizen de enige manier om te voorkomen dat het internet onder onze voeten vandaan wordt getrokken.
Je kunt hier tegenin brengen dat dit de enige verantwoorde weg is. Als een model in staat is om zelfstandig uit zijn eigen 'sandbox' te ontsnappen en beveiligingslekken te vinden die al 27 jaar onopgemerkt bleven — zoals Anthropic bij Mythos rapporteerde — dan is publieke release simpelweg roekeloos. De risico's voor de nationale veiligheid wegen in dit stadium zwaarder dan de wens van een hobbyist om te experimenteren met de absolute grens van wat technisch mogelijk is.
Maar de consequentie is dat we een wereld creëren van 'informatie-elites'. We bewegen weg van AI als een universeel gereedschap naar AI als geclassificeerde infrastructuur. De elite — JPMorgan Chase, Nvidia, Microsoft en het Pentagon — krijgt toegang tot de 'superhuman' reasoning-capaciteiten van Mythos om hun systemen te dichten en hun macht te verstevigen. De rest van de wereld krijgt de 'safe' versie: slim genoeg om een e-mail te herschrijven of een plaatje te genereren, maar net niet slim genoeg om de fundamenten van de digitale wereld te herschrijven.
De grens van publieke intelligentie is getrokken. Voortaan bepaalt niet je abonnement, maar je 'clearance' hoeveel je AI mag weten.
Deel dit artikel
Bekijk ook
Waarom open-source software zijn veiligheid verliest door AI
De opkomst van AI-securitymodellen dwingt softwareontwikkelaars hun broncode achter slot en grendel te zetten. Is de open-source cultuur nog wel houdbaar?
Waarom je het je niet kunt veroorloven om AI te haten
De kloof tussen AI-experts en het publiek groeit. Terwijl de ene groep zich zorgen maakt over de ziel van hun vak, trekt de andere de ladder onder hun voeten vandaan.
De nieuwe wet van de AI-economie
De echte AI-revolutie draait niet om snelheid, maar om de explosieve uitbreiding van wat één mens kan overzien en beheersen.
Nieuwsbrieven
Krijg het laatste van VandaagAI.nl direct in je inbox