Waarom open-source software zijn veiligheid verliest door AI
Analyse

Waarom open-source software zijn veiligheid verliest door AI

De opkomst van AI-securitymodellen dwingt softwareontwikkelaars hun broncode achter slot en grendel te zetten. Is de open-source cultuur nog wel houdbaar?

Vandaag, 07:08


Het begon als een kleine rimpeling in de softwarewereld, maar het bleek een voorbode van een fundamentele breuk. Cal.com, een scheduling-platform dat jarenlang gold als het boegbeeld van de open-source SaaS-beweging, trok deze maand plotseling de stekker uit zijn openbare code. De reden was niet een gebrek aan bijdragers of een commerciële koerswijziging. De reden was angst voor AI.

In de podcast AI Report werd de stap van Cal.com geduid als een defensieve reflex. Door de explosieve groei van AI-modellen die code kunnen lezen, begrijpen en exploiteren, voelt het bedrijf zich kwetsbaarder dan ooit. "Het is simpelweg te doorzichtig geworden hoe onze software werkt," klonk de verdediging. "Daarmee hebben wij minder tijd om te reageren op lekken."

Jarenlang was de overtuiging dat openheid veiligheid bood — het idee dat 'veel ogen alle bugs ondiep maken'. Maar in een wereld waarin die ogen niet langer menselijk zijn, maar beschikken over de onvermoeibare rekenkracht van gespecialiseerde AI-modellen, kantelt die logica. Voor een AI-model is een openbare codebase geen bron van transparantie, maar een kant-en-klare handleiding voor een aanval.

De katalysatoren voor deze verandering zijn inmiddels publiek bekend. Anthropic houdt zijn model Mythos achter slot en grendel omdat het te gevaarlijk zou zijn voor de wereldwijde cybersecurity. OpenAI antwoordde deze week met GPT 5.4 Cyber, een model dat software kan doorlichten op malware en lekken, zelfs zonder toegang tot de broncode. Wanneer dit soort intelligentie wordt losgelaten op een openbare codebase, wordt de drempel voor cyberaanvallen radicaal verlaagd.

De dreiging is niet alleen theoretisch. De virale agentic tool OpenClaw, die in korte tijd honderdduizenden sterren op GitHub verzamelde, werd onlangs getroffen door een kritieke kwetsbaarheid. Uit een scan van securitybedrijf Blink bleek dat 63 procent van de actieve instances wagenwijd openstond voor overnames. Eén foutje in de code, razendsnel gevonden door een AI-scanner, en een heel netwerk ligt plat.

Tegelijkertijd vervaagt de grens tussen inspiratie en diefstal. Diensten als Malus.sh gebruiken AI om functioneel equivalente versies van bestaande software te maken zonder een regel broncode letterlijk te kopiëren. Ze 'klonen' software door alleen te observeren hoe het zich gedraagt, waardoor traditionele copyleft-licenties juridisch buitenspel staan. Als software binnen enkele uren gereproduceerd kan worden door een machine die simpelweg 'kijkt' naar wat de software doet, verliest het publiceren van de broncode zijn strategische waarde.

Zelfs de manier waarop software wordt gebouwd, verandert. Meta monitort inmiddels muisbewegingen en toetsaanslagen van eigen werknemers om zogenaamde 'computer-use models' te trainen. De AI leert hier niet om de mens te ondersteunen, maar om zijn rol in de workflow te kunnen simuleren. In deze nieuwe realiteit wordt elke vorm van openheid over hoe software werkt direct munitie voor automatisering die de menselijke maker vervangt.

Er is een scherp tegenargument: juist omdat aanvallers over AI-kracht beschikken, heeft de verdediging de open-source community harder nodig dan ooit. Een gesloten team bij een bedrijf als Cal.com kan nooit sneller reageren dan een wereldwijde groep ontwikkelaars die dezelfde AI-tools inzet voor beveiliging. Door de broncode af te schermen, ontneem je jezelf de collectieve verdedigingskracht van het internet.

Toch lijkt de trend naar geslotenheid voorlopig de norm te worden. We zien een verschuiving naar afgeschermde omgevingen en private licenties. De cultuur van openheid, die de technologische vooruitgang van de afgelopen decennia aandreef, bezwijkt onder de efficiëntie van de modellen die op diezelfde open data zijn getraind. In het AI-tijdperk is broncode niet langer een gedeeld goed, maar een beveiligd risico.

Deel dit artikel

Nieuwsbrieven

Krijg het laatste van VandaagAI.nl direct in je inbox

Ontvang dagelijks een selectie met de belangrijkste verhalen direct in je inbox.


PRO

Coming soon. Het nieuws afgestemd op jouw werk en interesses.