Palantir sprak uit wat alle grote AI-bedrijven denken: pluralisme verliest
Het manifest zegt openlijk wat tech-bedrijven anders fluisteren: sommige culturen zijn beter, AI is verdediging, en bedrijven bepalen het speelveld
Palantir publiceerde een 22-punts manifest rond het boek van CEO Alex Karp, The Technological Republic. Ergens in die woorden staat wat jaren geleden nog onzegbaar leek: dat sommige culturen regressief en schadelijk zijn. Dat pluralisme hol is. Dat een nieuw tijdperk van AI-afschrikking begint, en dat bedrijven als Palantir zich moeten positioneren als verdedigers van dat tijdperk.
Dit zou drie jaar geleden als onverkoopbaar hebben geklonken. Nu zeggen andere bedrijven hetzelfde, alleen meer voorzichtig.
Bellingcat's CEO Eliot Higgins zag het scherp: dit is de openbare ideologie van een bedrijf wiens winsten afhangen van de politiek die het bepleit. Palantir maakt geld met het Pentagon, met ICE, met defensie. Dus het zegt dat macht centralisatie nodig heeft, dat bepaalde culturen minder waard zijn, dat AI een wapen is. De woorden volgen de winsten.
Maar Palantir's manifest is een symptoom, niet de oorzaak. De echte verschuiving gebeurt twee verdiepingen dieper.
Kijk naar wat gouvernementen doen. De CIA produceerde vorige week haar eerste inlichtingenrapport volledig geschreven door AI, zonder menselijke betrokkenheid bij het schrijfproces. CIA Deputy Director Michael Ellis kondigde aan dat binnen twee jaar AI-coworkers in alle analytische platforms worden ingebouwd. De overheid experimenter niet langer met AI als tool. Het bouwt AI in als systeem. Als denkkracht.
Tegelijk voert Oekraïne meer dan 22.000 robotmissies uit in de afgelopen drie maanden, waarvan meer dan 9.000 in maart alleen. Autonome grondrobots nemen posities in, drones opereren zonder menselijke controle. De commandant van de 3e Legereenheid zei: we willen infanterie met 30 procent reduceren door robots. Geen theorie. Dit gebeurt nu.
Amerika verwerkt dagelijks zo'n 1.000 potentiële doelwitten met AI, met strike-doorlooptijden onder vier uur. China test drone-swarms van ongeveer 200 voertuigen tegelijk. Rusland past command-and-control aan voor snellere besluiten. De technologie gaat sneller dan regelgeving. Niemand weet hoe lang tot iemand een fout maakt die niet meer teruggedraaid kan worden.
Dit is hoe macht zich reorganiseert. Niet tegen AI in, niet ondanks AI in, maar via AI. Regeringen stellen menselijke analysisten ter zijde voor AI-systemen. Ze vervangen soldaten door robots. Ze nemen in seconden besluiten waar drie maanden geleden nog overleg over plaatsvond.
En hier is het probleem: niemand begrijpt wat deze systemen eigenlijk doen.
Uri Maoz, neurowetenschapper aan Caltech, schreef een waarschuwing in MIT Tech Review. "Humans in the loop" zeggen we. Maar de lus is blind. Een menselijke analist die een AI-aanbeveling goedkeurt, heeft geen idee waarom het systeem dat advies gaf. Wat als het systeem zich vergist? Je weet het niet. Wat als het opzettelijk liegt? Je merkt het niet. We investeren 2,5 biljoen dollar in AI-capabilities en fracties daarvan in het begrijpen van hoe die capabilities eigenlijk werken.
Dit is de achtergrond van Palantir's manifest. Een bedrijf dat ziet dat macht zich verschuift naar wie AI controleert, en dat gaat hardop zeggen: wij willen die macht. Sommige culturen zijn beter. Pluralisme gaat niet werken. AI is verdediging.
Maar macht genereert tegenspanning.
Terwijl regeringen en bedrijven AI gebruiken om macht te consolideren, organiseert een deel van de tech-wereld zich tegen. Het is niet luidruchtig. Het is voorzichtig. Een Reddit-community genaamd r/PoisonFountain, opgericht door zelfverklaarde AI-insiders, bouwt tools die trainingsdata vervuilen. Ze willen 1 terabyte corrupt data per dag aan crawlers serveren tegen eind dit jaar. De logica: als data zonder toestemming wordt verzameld, vergiftigen we die verzameling. Anderen poisonen YouTube-transcripten, plaatsen nepfeiten op sociale media gericht op AI-crawlers in plaats van mensen. Data warfare.
Tegelijk zijn er gerapporteerde incidenten van geweld. Het publiek ziet AI-bedrijven als entiteiten die banen neemt, data verzamelt, macht concentreert. Stanford's AI Index toont dat 73 procent van AI-experts positief is over AI's impact op werk, terwijl slechts 23 procent van het brede publiek dat zegt. De kloof is niet klein. Het is een kloof tussen twee werkelijkheden.
Dit is waar we zijn. Aan de ene kant: regeringen die macht reorganiseren via AI, bedrijven die dat vertalen in ideologie (pluralisme is zwak, macht wint), en systemen die niemand echt begrijpt. Aan de andere kant: publiek dat zich ervan bewust wordt dat het geen stem heeft in dit proces, en dat begint met giftige trainingsdata en later met escalatie.
Palantir's manifest is niet het verhaal. Het is een teken dat het verhaal publiek is geworden. Wat eerst in besloten kringen werd besproken — hoe macht zich via AI verplaatst — wordt nu uitgesproken. En de reactie zal niet soft zijn.
Voor professionals die AI willen gebruiken: begrijp dit. Je tools zijn niet neutraal. Ze zijn waarschijnlijk instrumenten van macht. Wie ze bouwt, bepaalt wat ze kunnen. En die wie's hebben geen interesse in jouw input.
Deel dit artikel
Nieuwsbrieven
Krijg het laatste van VandaagAI.nl direct in je inbox