Begin binnenkort met het trainen van uw Claude AI-model op uw data: zo kunt u zich vóór de deadline afmelden
Wat je moet doen om 'nee' te zeggen
Anthropic, een AI-ontwikkelaar, voert... Claude... voert een fundamentele wijziging door in de manier waarop het met gebruikersgegevens omgaat. Vanaf vandaag kunnen Claude-gebruikers kiezen tussen het toestaan dat Anthropic hun gesprekken gebruikt om toekomstige AI-modellen te trainen of het uitschakelen van de optie en het privé houden van hun gegevens. Als u niet vóór 28 september 2025 besluit, verliest u de toegang tot Claude volledig.

Voorheen hanteerde Anthropic een privacy-first-aanpak, wat betekende dat je chats en tokens automatisch na 30 dagen werden verwijderd, tenzij wettelijk vereist. Vanaf vandaag worden je gegevens echter, tenzij je je afmeldt, maximaal vijf jaar bewaard en gebruikt in trainingssessies om Claude te helpen slimmer te worden.
Het nieuwe beleid is van toepassing op alle abonnementen, waaronder Free, Pro en Max, evenals Cloud Code binnen deze niveaus. Gebruikers van bedrijven, overheidsinstellingen, onderwijsinstellingen en API's worden niet beïnvloed.
Werkingsmechanisme
Bij aanmelding krijgen nieuwe gebruikers de mogelijkheid om toestemming te geven voor het gebruik van hun gegevens om de prestaties van het Claude AI-model te verbeteren. Bestaande gebruikers zien een pop-upvenster met de titel "Updates van de consumentenvoorwaarden en -beleid". Door op de grote blauwe knop "Akkoord" te tikken, worden gebruikers automatisch aangemeld, terwijl een kleinere schakelaar hen in staat stelt om deze functie uit te schakelen.
Als u deze periode negeert, stopt Claude na 28 september met werken. Het is belangrijk om te weten dat deze wijziging alleen van invloed is op toekomstige gesprekken en code. Alles wat u in het verleden hebt geschreven, wordt alleen gebruikt als u die gesprekken opnieuw opent. En als u een gesprek verwijdert, wordt het niet gebruikt voor training.
U kunt uw beslissing later wijzigen in uw privacyinstellingen. Zodra gegevens echter voor training zijn gebruikt, kunnen ze niet meer worden opgehaald. Het is belangrijk om dit mechanisme te begrijpen om uw privacy en gegevens te beschermen bij het gebruik van Cloud.
Waarom voert Anthropic deze wijziging door?

Anthropic stelt dat gebruikersgegevens essentieel zijn voor het verbeteren van de prestaties van zijn Claude-taalmodel op meerdere gebieden, van 'vibe-coding' en traditioneel programmeren tot inferentiemogelijkheden en het handhaven van beveiligingsnormen. Anthropic benadrukt dat het deze gegevens niet aan derden verkoopt en in plaats daarvan geautomatiseerde filters gebruikt om gevoelige informatie te verwijderen voordat deze wordt gebruikt om zijn modellen te trainen.
Deze wijziging betekent echter een verschuiving in de privacybalans, van standaardprivacy naar standaardgegevensdeling, tenzij de gebruiker expliciet bezwaar maakt. Met andere woorden: uw gegevens worden standaard verzameld en gebruikt om Claude te verbeteren, en u moet actie ondernemen om dit te stoppen als u uw gegevens niet wilt delen. Deze wijziging is bedoeld om de AI-mogelijkheden van Claude te verbeteren door gebruikersgegevens te benutten, en onderstreept tegelijkertijd Anthropic's toewijding aan de bescherming van de privacy van gebruikers door middel van filtermechanismen voor gevoelige gegevens.
Wat is jouw keuze?
Anthropic heeft besloten om Claude sneller te laten trainen met behulp van echte data. Dit betekent dat hoe beter het model wordt in het beantwoorden van complexe vragen, het schrijven van code en het vermijden van fouten, hoe verder AI zal evolueren.
Deze vooruitgang gaat echter ten koste van de gebruikers. Zij worden nu mogelijk onderdeel van een trainingsset, waarbij hun gegevens jaren in plaats van weken worden opgeslagen.
Voor gemiddelde gebruikers lijkt dit misschien geen groot probleem. Maar voor privacybewuste gebruikers, of voor iedereen die werkprojecten, persoonlijke zaken of gevoelige informatie in de cloud bespreekt, kan deze update een waarschuwingssignaal zijn.
Als u de standaardinstelling hebt ingeschakeld, is het nu uw verantwoordelijkheid om deze optie uit te schakelen als u uw gegevens privé wilt houden.
Reacties zijn gesloten.