Inizia subito ad addestrare il tuo modello di intelligenza artificiale Claude sui tuoi dati: ecco come annullare l'iscrizione prima della scadenza

Cosa devi fare per dire "no"

Anthropic, uno sviluppatore di intelligenza artificiale, sta conducendo... Claude... sta apportando una modifica fondamentale al modo in cui gestisce i dati degli utenti. A partire da oggi, agli utenti di Claude verrà chiesto di scegliere se consentire ad Anthropic di utilizzare le loro conversazioni per addestrare futuri modelli di intelligenza artificiale o negare il consenso e mantenere privati ​​i propri dati. Se non si decide entro il 28 settembre 2025, si perderà completamente l'accesso a Claude.

Claude sul portatile

In precedenza, Anthropic aveva adottato un approccio che metteva al primo posto la privacy, il che significava che le tue chat e i tuoi token venivano automaticamente cancellati dopo 30 giorni, salvo diversa indicazione legale. Tuttavia, a partire da oggi, a meno che tu non scelga di non acconsentire, i tuoi dati saranno conservati per un massimo di cinque anni e utilizzati per sessioni di formazione che aiuteranno Claude a diventare più intelligente.

La nuova politica si applica a tutti i piani, inclusi Free, Pro e Max, nonché a Cloud Code all'interno di questi livelli. Gli utenti aziendali, governativi, del settore istruzione e API non sono interessati.

Meccanismo di azione

Al momento della registrazione, ai nuovi utenti verrà data la possibilità di acconsentire all'utilizzo dei propri dati per migliorare le prestazioni del modello di intelligenza artificiale di Claude. Gli utenti esistenti visualizzeranno una finestra pop-up intitolata "Aggiornamenti ai Termini e alle Politiche per i Consumatori". Toccando il grande pulsante blu "Accetto" si acconsente automaticamente, mentre un pulsante a levetta più piccolo consente agli utenti di disattivare questa funzionalità.

Se ignori questa finestra, Claude smetterà di funzionare dopo il 28 settembre. È importante notare che questa modifica riguarda solo le conversazioni e il codice futuri. Tutto ciò che hai scritto in passato verrà utilizzato solo se riaprirai quelle conversazioni. E se elimini una conversazione, non verrà utilizzata per la formazione.

Puoi modificare la tua decisione in un secondo momento nelle impostazioni sulla privacy. Tuttavia, una volta utilizzati per l'addestramento, i dati non possono essere recuperati. È importante comprendere questo meccanismo per proteggere la tua privacy e i tuoi dati quando utilizzi il Cloud.

Perché Anthropic sta apportando questa modifica?

Dario Amodei, CEO di Anthropic

Anthropic sostiene che i dati degli utenti siano essenziali per migliorare le prestazioni del suo modello linguistico Claude in molteplici ambiti, dal "vibe coding" alla programmazione tradizionale, fino alle capacità di inferenza e al mantenimento degli standard di sicurezza. Anthropic sottolinea di non vendere questi dati a terze parti e di utilizzare invece filtri automatici per rimuovere le informazioni sensibili prima di utilizzarle per addestrare i suoi modelli.

Tuttavia, questa modifica rappresenta uno spostamento nell'equilibrio della privacy, passando dalla privacy predefinita alla condivisione predefinita dei dati, a meno che l'utente non si opponga esplicitamente. In altre parole, i tuoi dati verranno raccolti e utilizzati di default per migliorare Claude, e dovrai intervenire per impedirlo se preferisci non condividerli. Questa modifica mira a migliorare le capacità di intelligenza artificiale di Claude sfruttando i dati degli utenti, sottolineando al contempo l'impegno di Anthropic nel proteggere la privacy degli utenti attraverso meccanismi di filtraggio dei dati sensibili.

Qual è la tua scelta?

La decisione di Anthropic di accelerare il percorso di Claude per migliorare i dati del mondo reale su cui si basa l'addestramento significa che più il modello diventa bravo a rispondere a domande complesse, a scrivere codice e a evitare errori, più farà progredire l'intelligenza artificiale.

Tuttavia, questo progresso avviene a scapito degli utenti, che ora potrebbero diventare parte di un set di addestramento e i cui dati potrebbero essere archiviati per anni anziché per settimane.

Per gli utenti medi, questo potrebbe non sembrare un grosso problema. Ma per gli utenti attenti alla privacy, o per chiunque discuta di progetti di lavoro, questioni personali o informazioni sensibili nel Cloud, questo aggiornamento potrebbe essere un segnale d'allarme.

Con l'impostazione predefinita abilitata, ora è tua responsabilità disabilitare questa opzione se vuoi mantenere privati ​​i tuoi dati.

I commenti sono chiusi.