Logo van TechCrunchLogo van Business Insider

-Politiek

OpenAI versoepelt veiligheidsregels bij riskante releases concurrenten

Copyright techcrunch
Foto: VandaagAI.nl

OpenAI past haar veiligheidsraamwerk aan en geeft aan de eigen veiligheidsstandaarden te kunnen verlagen als concurrenten risicovolle AI-systemen zonder vergelijkbare waarborgen uitbrengen.

In het kort:

OpenAI's herziene Preparedness Framework weerspiegelt de toenemende druk op AI-bedrijven om snel nieuwe modellen uit te brengen, maar roept ook vragen op over de balans tussen veiligheid en snelheid.

  • Het bedrijf zegt alleen aanpassingen te maken na grondige evaluatie van het veranderde risicolandschap
  • Veiligheidstests worden steeds meer geautomatiseerd om het snellere ontwikkeltempo bij te houden
  • Volgens de Financial Times krijgen testers nu minder dan een week voor veiligheidscontroles

Het grote plaatje:

OpenAI introduceert een nieuwe tweedeling in de risicoclassificatie van AI-modellen, met focus op 'hoge' en 'kritieke' capaciteiten.

  • Modellen met 'hoge capaciteit' kunnen bestaande risico's op ernstige schade versterken
  • 'Kritieke capaciteit' betekent dat een model volledig nieuwe risico's introduceert
  • Beide categorieën vereisen specifieke veiligheidsmaatregelen, waarbij kritieke systemen al tijdens de ontwikkeling extra waarborgen nodig hebben

De andere kant:

De aanpassing roept zorgen op over een mogelijke neerwaartse spiraal in AI-veiligheid. Critici wijzen erop dat OpenAI steeds vaker veiligheidstests uitvoert op vroegere versies van modellen dan die uiteindelijk worden uitgebracht.

Bronnen

Het belangrijkste nieuws gratis in je mailbox

Elke week een korte e-mail met de meest relevante verhalen.

Meer politiek