Waarom open-source software zijn veiligheid verliest door AI
De opkomst van AI-securitymodellen dwingt softwareontwikkelaars hun broncode achter slot en grendel te zetten. Is de open-source cultuur nog wel houdbaar?
Het begon als een kleine rimpeling in de softwarewereld, maar het bleek een voorbode van een fundamentele breuk. Cal.com, een scheduling-platform dat jarenlang gold als het boegbeeld van de open-source SaaS-beweging, trok deze maand plotseling de stekker uit zijn openbare code. De reden was niet een gebrek aan bijdragers of een commerciële koerswijziging. De reden was angst voor AI.
In de podcast AI Report werd de stap van Cal.com geduid als een defensieve reflex. Door de explosieve groei van AI-modellen die code kunnen lezen, begrijpen en exploiteren, voelt het bedrijf zich kwetsbaarder dan ooit. "Het is simpelweg te doorzichtig geworden hoe onze software werkt," klonk de verdediging. "Daarmee hebben wij minder tijd om te reageren op lekken."
Jarenlang was de overtuiging dat openheid veiligheid bood — het idee dat 'veel ogen alle bugs ondiep maken'. Maar in een wereld waarin die ogen niet langer menselijk zijn, maar beschikken over de onvermoeibare rekenkracht van gespecialiseerde AI-modellen, kantelt die logica. Voor een AI-model is een openbare codebase geen bron van transparantie, maar een kant-en-klare handleiding voor een aanval.
De katalysatoren voor deze verandering zijn inmiddels publiek bekend. Anthropic houdt zijn model Mythos achter slot en grendel omdat het te gevaarlijk zou zijn voor de wereldwijde cybersecurity. OpenAI antwoordde deze week met GPT 5.4 Cyber, een model dat software kan doorlichten op malware en lekken, zelfs zonder toegang tot de broncode. Wanneer dit soort intelligentie wordt losgelaten op een openbare codebase, wordt de drempel voor cyberaanvallen radicaal verlaagd.
De dreiging is niet alleen theoretisch. De virale agentic tool OpenClaw, die in korte tijd honderdduizenden sterren op GitHub verzamelde, werd onlangs getroffen door een kritieke kwetsbaarheid. Uit een scan van securitybedrijf Blink bleek dat 63 procent van de actieve instances wagenwijd openstond voor overnames. Eén foutje in de code, razendsnel gevonden door een AI-scanner, en een heel netwerk ligt plat.
Tegelijkertijd vervaagt de grens tussen inspiratie en diefstal. Diensten als Malus.sh gebruiken AI om functioneel equivalente versies van bestaande software te maken zonder een regel broncode letterlijk te kopiëren. Ze 'klonen' software door alleen te observeren hoe het zich gedraagt, waardoor traditionele copyleft-licenties juridisch buitenspel staan. Als software binnen enkele uren gereproduceerd kan worden door een machine die simpelweg 'kijkt' naar wat de software doet, verliest het publiceren van de broncode zijn strategische waarde.
Zelfs de manier waarop software wordt gebouwd, verandert. Meta monitort inmiddels muisbewegingen en toetsaanslagen van eigen werknemers om zogenaamde 'computer-use models' te trainen. De AI leert hier niet om de mens te ondersteunen, maar om zijn rol in de workflow te kunnen simuleren. In deze nieuwe realiteit wordt elke vorm van openheid over hoe software werkt direct munitie voor automatisering die de menselijke maker vervangt.
Er is een scherp tegenargument: juist omdat aanvallers over AI-kracht beschikken, heeft de verdediging de open-source community harder nodig dan ooit. Een gesloten team bij een bedrijf als Cal.com kan nooit sneller reageren dan een wereldwijde groep ontwikkelaars die dezelfde AI-tools inzet voor beveiliging. Door de broncode af te schermen, ontneem je jezelf de collectieve verdedigingskracht van het internet.
Toch lijkt de trend naar geslotenheid voorlopig de norm te worden. We zien een verschuiving naar afgeschermde omgevingen en private licenties. De cultuur van openheid, die de technologische vooruitgang van de afgelopen decennia aandreef, bezwijkt onder de efficiëntie van de modellen die op diezelfde open data zijn getraind. In het AI-tijdperk is broncode niet langer een gedeeld goed, maar een beveiligd risico.
Deel dit artikel
Bekijk ook
Gated Intelligence: Het nieuwe kastenstelsel van AI
De nieuwste modellen van Anthropic, OpenAI en Google zijn te krachtig voor het gewone publiek. We betreden een tijdperk waarin je 'clearance' belangrijker is dan je abonnement.
Waarom je het je niet kunt veroorloven om AI te haten
De kloof tussen AI-experts en het publiek groeit. Terwijl de ene groep zich zorgen maakt over de ziel van hun vak, trekt de andere de ladder onder hun voeten vandaan.
Waarom AI op papier alles kan, maar in de praktijk struikelt
AI scoort inmiddels 100% op programmeertests, maar kan in de helft van de gevallen nog geen analoge klok aflezen. Welkom bij de ‘jagged frontier’.
Nieuwsbrieven
Krijg het laatste van VandaagAI.nl direct in je inbox