Trump straft Anthropic maar wint tegen OpenAI
Hoe een bedrijf dat nee zei tegen militaire AI sterker uit de strijd komt dan de marktleider
De afgelopen twee weken deed de Trump-administratie iets ongebruikelijks. Ze zette Anthropic op een zwarte lijst — niet omdat het bedrijf slecht AI bouwde, maar omdat het weigerde Claude in te zetten voor autonome wapens en massasurveillance. Secretary of Defense Hegseth en zijn team gebruikten een instrument dat normaal gereserveerd is voor buitenlandse vijanden — supply chain risk designation — tegen een Amerikaans AI-bedrijf dat simpelweg nee zei.
Afgelopen maandag weigerde een federaal hof van beroep Anthropic's verzoek om die blacklisting te blokkeren. Drie rechters, twee door Trump benoemd, stelden dat militaire belangen zwaarder wegen dan één bedrijf's financiële schade.
En toch: in dezelfde periode zag Claude haar marktaandeel verdrievoudigen. Waar OpenAI de standaard was, begint Claude nu die positie over te nemen. Bij de HumanX-conferentie deze week heette het onderwerp van gesprek niet ChatGPT. Het heette Claude. Op panels, in vendor-gesprekken, bij banken. OpenAI zag haar dominantie in enterprise-AI wegsijpelen naar een bedrijf dat de regering net probeerde te isoleren.
Dit is geen normale marktdynamiek. Dit is iets anders.
Het patroon: de Trump-administratie probeert Anthropic te straffen voor ethische grenzen. Tegelijkertijd stimuleert dezelfde administratie — via Treasury Secretary Bessent en Fed Chair Powell — grote Amerikaanse banken om juist Anthropic's meest geavanceerde model, Mythos, in te zetten. JPMorgan Chase was de eerste partner. Goldman Sachs, Citigroup, Bank of America en Morgan Stanley volgen.
De ironie is niet subtiel: degenen die Anthropic willen isoleren van defensiecontracten duwen het juist in de armen van de financiële sector. En daar blijkt Anthropic niet alleen welkom — het blijkt onmisbaar.
Wat hier gebeurt, is niet dat Anthropic weerstand biedt tegen macht en verliest. Het is dat Anthropic macht gegeven ziet door te weigeren. De bedrijven die Claude kiezen, kiezen niet voor een product. Ze kiezen voor het signaal dat Anthropic ergens voor staat. In een industrie waar compromis standaard is, voelt integriteit disruptief. Die rariteit wordt macht.
Mythos zelf is hier symptomatisch. Anthropic beperkte de release tot een beperkte groep vertrouwde partners — Amazon, Apple, Microsoft, Broadcom, Cisco en CrowdStrike — terwijl het bedrijf gesprekken voert met de Amerikaanse regering over verdere toepassing. Dit is niet standaard. Waar OpenAI haar modellen massaal beschikbaar stelt en scaling als primaire strategie ziet, kiest Anthropic voor selectiviteit. Mythos kan zero-days vinden. Het kan cyberkwetsbaarheden in complexe systemen opsporen. Anthropic weet dat. En in plaats van dat te democratiseren, maakte het dat exclusief — voor partners die het vertrouwde.
Dat voelt als macht op een manier die Silicon Valley's schaallogica tegenspreekt. En het werkt.
De vraag dringt zich op: wie controleert nu eigenlijk de macht in AI? Een maand geleden zou iedereen zeggen: de regering. De regering bepaalt regulering, subsidies, militaire contracten. Maar hier zien we iets anders. De regering probeert Anthropic via defensie-kanalen te isoleren. Het enige wat gebeurt is dat Anthropic via economische kanalen sterker wordt. Treasury en Fed, niet Defense, worden de spelers. Banken, niet beleidsmakers, bepalen wie aan het tafeltje zit.
En Anthropic won zonder compromis te sluiten.
Dit kan natuurlijk veranderen. De zaak van Anthropic tegen de Trump-administratie gaat verder. Oral arguments staan voor 19 mei. De regering kan andere hefbomen gebruiken. Maar vandaag, nu, in deze periode na de blacklisting, ziet Anthropic er niet uit als een bedrijf dat verliest. Het ziet er uit als een bedrijf dat precies weet wat het doet.
Het patroon suggereert iets groters over hoe macht zich herverdeelt in een wereld waar de meest geavanceerde AI-modellen niet meer aan staten toebehoort, maar aan bedrijven die durven te zeggen nee.
Deel dit artikel
Nieuwsbrieven
Krijg het laatste van VandaagAI.nl direct in je inbox