Waarom u ChatGPT als therapeut niet moet gebruiken: inzichten van Sam Altman en waarschuwingen
Wees voorzichtig met wat u aan ChatGPT vertelt.
Volgens Sam Altman, CEO van OpenAI, is het een goed idee om ChatGPT voor emotionele ondersteuning Een goed idee, om een heel simpele reden: AI-gestuurde chatbots vallen niet onder dezelfde beroepsgeheimwetgeving als menselijke artsen en therapeuten.
In een recente podcast zei Altman: "Mensen – vooral jongeren – gebruiken hem als therapeut of personal coach, waarbij ze hun emotionele problemen aankaarten en vragen: 'Wat moet ik doen?'" Afgelopen weekend met Theo Von.

"Als je nu met een therapeut, advocaat of arts over deze kwesties praat, zijn die gesprekken wettelijk vertrouwelijk", voegde hij toe.
Hij vervolgde: "Er is sprake van vertrouwelijkheid tussen arts en patiënt, juridische vertrouwelijkheid, enzovoort. We hebben dit probleem met uw gesprekken met ChatGPT nog niet opgelost."
Altman merkt op dat OpenAI in geval van een rechtszaak wettelijk verplicht kan worden om gegevens van gesprekken die iemand met ChatGPT heeft gevoerd, over te dragen. Het bedrijf is met name al verwikkeld in een juridische strijd met The New York Times over het bewaren van verwijderde gesprekken. In mei beval een rechtbank OpenAI om "alle output log data die verwijderd had moeten worden" te bewaren, zelfs als de gebruiker of de privacywetgeving dit vereist.
In de podcast gaf Altman aan dat hij van mening is dat AI "hetzelfde privacyconcept voor je gesprekken met AI zou moeten hanteren als voor gesprekken met een therapeut of wie dan ook – iets waar nog geen jaar geleden iemand aan had gedacht." Dit onderstreept het belang van wet- en regelgeving voor het gebruik van AI in gevoelige sectoren zoals de geestelijke gezondheidszorg, om de privacy en gegevens van gebruikers te beschermen.
Maken mensen gebruik van kunstmatige intelligentie voor psychotherapie?

Eerder dit jaar analyseerde Anthropic, de ontwikkelaar van ChatGPT-concurrent Claude, 4.5 miljoen gesprekken om te bepalen of gebruikers chatbots gebruikten voor romantische gesprekken. Volgens het onderzoek bestond slechts 2.9% van de interacties met Claude AI uit romantische gesprekken, terwijl gezelschap en rollenspellen slechts 0.5% uitmaakten.
In het kader van een rechtszaak kan OpenAI wettelijk verplicht zijn om de opnamen van een gesprek dat iemand met ChatGPT heeft gevoerd, te overhandigen.
Hoewel de gebruikersbasis van ChatGPT die van Claude ver overtreft, is het nog steeds relatief zeldzaam dat mensen deze chatbot gebruiken voor emotionele communicatie. In tegenstelling tot Altmans opmerkingen hierboven, stelde een gezamenlijk onderzoek van OpenAI en MIT: "Emotionele betrokkenheid bij ChatGPT is zeldzaam in de praktijk."
In de briefing werd toegevoegd: "Emotionele signalen (aspecten van interacties die duiden op empathie, genegenheid of steun) waren niet aanwezig in de overgrote meerderheid van de gesprekken op het platform dat we hebben geëvalueerd, wat suggereert dat emotionele betrokkenheid een zeldzaam gebruiksvoorbeeld is voor ChatGPT."
Tot zover gaat het goed. Maar hier is de kern: conversationele AI zal alleen maar beter worden in interactiviteit en nuance, wat er gemakkelijk toe kan leiden dat meer mensen zich tot AI wenden voor hulp bij persoonlijke problemen.
Bijwerken GPT-5 ChatGPT staat op het punt te arriveren, met een scala aan natuurlijkere interacties en meer context. Hoewel het gemakkelijker wordt om meer details met AI te delen, moeten gebruikers misschien goed nadenken over wat ze willen zeggen.
Reacties zijn gesloten.