In het kort:
OpenAI's recente eis voor ID-verificatie lijkt direct verband te houden met zorgen over het ongeoorloofd gebruik van hun AI-outputs voor het trainen van concurrerende modellen.
- Copyleaks ontdekte dat DeepSeek-R1's output voor driekwart overeenkomt met OpenAI's karakteristieke schrijfstijl
- Andere modellen zoals Microsoft's phi-4 en Musk's Grok-1 tonen vrijwel geen overlap met OpenAI's 'vingerafdruk'
- OpenAI heeft eerder al aangegeven "aanwijzingen te onderzoeken" dat DeepSeek hun modellen mogelijk ongepast heeft gebruikt
Het grote plaatje:
De ontdekking markeert een keerpunt in de AI-industrie, waar de bescherming van intellectueel eigendom steeds cruciale wordt. Copyleaks' technologie kan nu de 'vingerafdruk' van AI-modellen identificeren, zelfs wanneer ze verschillende taken uitvoeren.
De andere kant:
Critici wijzen op de ironie dat OpenAI zelf zijn vroege modellen trainde op zonder toestemming verzamelde web-content. Volgens Copyleaks CEO Alon Yamin is er echter een belangrijk verschil: "Het gebruik van AI-outputs voor concurrerende modellen is meer vergelijkbaar met het reverse-engineeren van andermans product."