In het kort:
Het onderzoek toont aan dat AI-systemen niet automatisch rationeler worden naarmate ze krachtiger worden. Bij 18 verschillende tests naar cognitieve vooroordelen vertoonde ChatGPT opvallend menselijke patronen.
- Nieuwere versies van ChatGPT maken sommige menselijke denkfouten zelfs vaker dan oudere versies
- Bij statistische opgaven presteert de AI beter dan mensen
- Zodra emoties en voorkeuren meespelen, vertoont het systeem juist typisch menselijke zwakheden
Het grote plaatje:
De resultaten tonen een cruciaal inzicht in de ontwikkeling van AI-systemen: ze excelleren bij taken met duidelijke regels, maar worstelen net als mensen met complexe, emotionele beslissingen.
- Bij risico-inschattingen en eerste indrukken maakt ChatGPT dezelfde systematische fouten als mensen
- Het systeem presteert wel beter bij puur statistische redeneringen
- De bevindingen roepen vragen op over de mate waarin menselijke vooroordelen onbedoeld worden overgenomen in AI-systemen
De andere kant:
Deze ontdekking plaatst vraagtekens bij het idee dat AI-systemen per definitie rationeler zijn dan mensen. Het suggereert dat we voorzichtig moeten zijn met het blind vertrouwen op AI bij complexe besluitvorming waar menselijk inzicht en intuïtie belangrijk zijn.