ChatGPT kan om bewijs van uw identiteit vragen als het nieuwe leeftijdsvoorspellingssysteem vermoedt dat u jonger bent dan 18.
ChatGPT is momenteel bezig met de ontwikkeling van een geautomatiseerd leeftijdsdetectiesysteem dat kan vaststellen of een gebruiker jonger is dan 18 jaar. In sommige gevallen, wanneer dit niet kan worden vastgesteld, kan de chatbot gebruikers vragen om een officieel identiteitsbewijs te overleggen om dit te bewijzen.

OpenAI, het bedrijf achter ChatGPT, verbetert zijn hulpmiddelen voor ouderlijk toezicht en staat onder toenemende druk vanwege de spraakmakende zaak van de 16-jarige Adam Renn. Wiens familie beweert dat ChatGPT heeft bijgedragen aan zijn zelfmoord.
"ChatGPT is bedoeld voor personen van 13 jaar en ouder", legt CEO Sam Altman uit in een blogpost met de titel "Veiligheid, vrijheid en privacy voor tieners".
"We werken aan de ontwikkeling van een leeftijdsvoorspellingssysteem waarmee we de leeftijd kunnen schatten op basis van hoe mensen ChatGPT gebruiken", aldus hij. كتبBij twijfel zullen we het zekere voor het onzekere nemen en terugkeren naar de ervaring voor minderjarigen. In sommige gevallen of landen kunnen we ook om een identiteitsbewijs vragen; we weten dat dit een privacycompromis voor volwassenen betekent, maar we zijn van mening dat het een waardevolle afweging is.
In sommige gevallen of landen vragen we ook om een identiteitsbewijs. We beseffen dat dit een inbreuk is op de privacy van volwassenen, maar we zijn ervan overtuigd dat het een waardevol compromis is.
Altman legt vervolgens uit dat sommige elementen van ChatGPT's reacties geblokkeerd zullen worden voor tieners, zoals flirterige chatreacties of discussies over zelfbeschadiging. Hij zegt dat het bedrijf veiligheid boven privacy en vrijheid voor tieners zal stellen, en legt uit dat minderjarigen "aanzienlijke bescherming" nodig hebben.
Tot slot voegt hij eraan toe dat als een tiener suïcidale gedachten uitspreekt tegen de chatbot, deze zal proberen contact op te nemen met zijn/haar ouders en hen te waarschuwen. Lukt dat niet, dan zal ChatGPT proberen contact op te nemen met de autoriteiten.
"We erkennen dat deze principes met elkaar botsen en dat niet iedereen het eens zal zijn met de manier waarop we dit conflict oplossen", schreef Altman. "Dit zijn moeilijke beslissingen, maar na overleg met experts denken we dat dit de beste keuze is, en we willen transparant zijn over onze intenties."
Dr. Brian Ramos, neurowetenschapper en onderzoeker naar levensduur bij Gewoon NootropicsTom's Guide zegt dat OpenAI de juiste beslissing neemt.
"Als neurowetenschapper die gespecialiseerd is in levensduur en holistisch welzijn, ben ik blij met veiligheidsmaatregelen zoals leeftijdsvoorspellingssystemen en ouderlijk toezicht", vertelde hij me via e-mail.
De hersenen van tieners zijn nog in ontwikkeling, waardoor ze kwetsbaarder zijn voor zowel de voordelen als de risico's van kunstmatige intelligentie. ChatGPT kan een nuttige aanvulling zijn voor luchtige, ongedwongen therapeutische gesprekken, die helpen bij stressverlichting, meditatie en het ontwikkelen van gezonde gewoonten.
Maar bij diepe psychologische problemen, met name rond zelfbeschadiging of trauma, is het altijd raadzaam om menselijke professionals te raadplegen. Technologie kan echte therapeutische zorg ondersteunen, maar mag deze nooit vervangen.
Ouderlijk toezicht op ChatGPT – Wat is de volgende stap?

De toekomstige ChatGPT-functie voor ouderlijk toezicht biedt ouders de mogelijkheid om hun accounts te koppelen aan de accounts van hun tieners.
Dit stelt hen in staat om namens hun kinderen instellingen te implementeren, zoals het instellen van 'blokkeertijden' wanneer ze het platform niet kunnen gebruiken of het uitschakelen van de chatgeschiedenis. Door accounts te koppelen, kan ChatGPT ouders ook waarschuwen als er tekenen van zorgwekkend of mogelijk schadelijk gedrag worden gedetecteerd in de interacties met het kind.
Reacties zijn gesloten.