Onderzoek: Overmatig gebruik van ChatGPT kan leiden tot emotionele gehechtheid
OpenAI lijkt wekelijks nieuwe AI-modellen aan te kondigen om zijn ChatGPT-chatbot voor zijn 400 miljoen gebruikers te verbeteren. Het gemak waarmee deze AI-tool gebruikt wordt, suggereert echter dat iets goeds ook te vaak gebruikt kan worden.
Het AI-bedrijf onderzoekt nu de mogelijke psychologische gevolgen die ChatGPT kan hebben voor zijn gebruikers. Het werd gepubliceerd OpenAI Resultaten Tweedelige studie Het onderzoek werd uitgevoerd in samenwerking met het MIT Media Lab en toonde aan dat er een verband is tussen het toenemende gebruik van de ChatGPT-chatbot en toegenomen gevoelens van eenzaamheid onder gebruikers.
Elke organisatie voerde een onafhankelijk onderzoek uit en de resultaten werden vervolgens gecombineerd tot een geconsolideerde conclusie. Gedurende een maand onderzocht OpenAI 'meer dan 40 miljoen interacties met ChatGPT', waarbij geen menselijke tussenkomst nodig was om de privacy van de gebruiker te waarborgen. Ondertussen hield MIT toezicht op bijna 1000 deelnemers met behulp van ChatGPT Meer dan 28 dagen. Deze onderzoeken zijn nog niet door vakgenoten beoordeeld.
In het MIT-onderzoek werd gekeken naar de verschillende gebruiksfuncties die van invloed kunnen zijn op de emotionele ervaring van gebruikers bij interactie met ChatGPT, waaronder het gebruik van tekst of spraak. Uit de resultaten bleek dat beide media het potentieel hadden om gevoelens van eenzaamheid op te wekken of de sociale interactie van gebruikers te beïnvloeden tijdens de onderzoeksperiode. Ook de intonatie van de stem en de keuze van het onderwerp waren belangrijke vergelijkingspunten.
Het gebruik van een neutrale toon in de spraakmodus van ChatGPT had minder kans op negatieve emotionele uitkomsten voor de deelnemers. Uit het onderzoek bleek dat er een verband bestond tussen het voeren van persoonlijke gesprekken met ChatGPT en een grotere kans op eenzaamheid bij deelnemers; Deze effecten waren echter van korte duur. Zelfs mensen die tekstchat gebruiken om over algemene onderwerpen te praten, ervaren een toename in het aantal gevallen van emotionele afhankelijkheid van de chatbot.
Uit het onderzoek bleek ook dat mensen die aangaven ChatGPT als een vriend te beschouwen en mensen die al een sterke neiging tot emotionele gehechtheid in relaties hadden, zich vaker eenzaam en emotioneel afhankelijk van de chatbot voelden tijdens hun deelname aan het onderzoek.
Het OpenAI-onderzoek gaf meer context, aangezien de resultaten ervan over het algemeen aangaven dat interacties met ChatGPT voor emotionele doeleinden zeldzaam waren. Uit het onderzoek bleek bovendien dat zelfs onder de intensieve gebruikers die de geavanceerde spraakmodus van de chatbot gebruikten en vaker aangaven dat ze ChatGPT als een vriend beschouwden, deze groep deelnemers minder emotionele reacties ervoer tijdens de interactie met de chatbot.
OpenAI concludeerde dat het doel van deze onderzoeken is om inzicht te krijgen in de uitdagingen die zich kunnen voordoen bij de ontwikkeling van haar technologie. Daarnaast wil het voorspellingen kunnen doen en voorbeelden kunnen geven van hoe haar modellen gebruikt kunnen worden.
Hoewel OpenAI opmerkt dat zijn op interactie gebaseerde onderzoek het gedrag van echte mensen nabootst, hebben meer dan een paar echte mensen in openbare fora toegegeven, Vind Reddit leuk, door ChatGPT te gebruiken in plaats van naar een therapeut te gaan met hun gevoelens.
Reacties zijn gesloten.