In het kort:
OpenAI's herziene Preparedness Framework weerspiegelt de toenemende druk op AI-bedrijven om snel nieuwe modellen uit te brengen, maar roept ook vragen op over de balans tussen veiligheid en snelheid.
- Het bedrijf zegt alleen aanpassingen te maken na grondige evaluatie van het veranderde risicolandschap
- Veiligheidstests worden steeds meer geautomatiseerd om het snellere ontwikkeltempo bij te houden
- Volgens de Financial Times krijgen testers nu minder dan een week voor veiligheidscontroles
Het grote plaatje:
OpenAI introduceert een nieuwe tweedeling in de risicoclassificatie van AI-modellen, met focus op 'hoge' en 'kritieke' capaciteiten.
- Modellen met 'hoge capaciteit' kunnen bestaande risico's op ernstige schade versterken
- 'Kritieke capaciteit' betekent dat een model volledig nieuwe risico's introduceert
- Beide categorieën vereisen specifieke veiligheidsmaatregelen, waarbij kritieke systemen al tijdens de ontwikkeling extra waarborgen nodig hebben
De andere kant:
De aanpassing roept zorgen op over een mogelijke neerwaartse spiraal in AI-veiligheid. Critici wijzen erop dat OpenAI steeds vaker veiligheidstests uitvoert op vroegere versies van modellen dan die uiteindelijk worden uitgebracht.