In het kort:
OpenAI's nieuwe GPT-4.1 modelreeks toont verbeterde prestaties op het gebied van programmeren, maar het ontbreken van een veiligheidsrapport roept vragen op over het bedrijfs commitment aan transparantie.
- Het bedrijf stelt dat GPT-4.1 geen 'frontier model' is en daarom geen apart veiligheidsrapport nodig heeft
- Deze beslissing staat haaks op eerdere toezeggingen van OpenAI aan overheden over modeltransparantie
- Voormalige werknemers uiten zorgen over verminderde aandacht voor veiligheid binnen het bedrijf
Het grote plaatje:
De AI-industrie worstelt met vrijwillige veiligheidsrapportages, terwijl er geen wettelijke verplichting bestaat voor het publiceren van systeemkaarten of veiligheidsaudits.
- Grote AI-labs zoals Google en OpenAI lijken hun rapportagestandaarden te verlagen
- OpenAI verzette zich tegen wetgeving in Californië die veiligheidsrapportages verplicht zou maken
- Twaalf ex-OpenAI-medewerkers waarschuwen dat winstgevendheid mogelijk voorrang krijgt boven veiligheid
De andere kant:
Hoewel GPT-4.1 niet OpenAI's krachtigste model is, biedt het wel aanzienlijke verbeteringen in efficiëntie en snelheid. Experts stellen dat juist deze vooruitgang een gedegen veiligheidsrapport des te belangrijker maakt.