Perché dovresti evitare di usare ChatGPT come terapeuta: spunti di riflessione di Sam Altman e avvertenze

Fai attenzione a ciò che dici a ChatGPT.

Secondo Sam Altman, CEO di OpenAI, ricorrere a ChatGPT per il supporto emotivo Una buona idea, per un motivo molto semplice: i chatbot basati sull'intelligenza artificiale non sono soggetti alle stesse leggi sulla riservatezza professionale dei medici e dei terapisti umani.

In una recente apparizione in un podcast, Altman ha affermato: "Le persone, soprattutto i giovani, lo usano come terapeuta o coach personale, a cui espongono i loro problemi emotivi e chiedono: 'Cosa dovrei fare?'" Lo scorso fine settimana con Theo Von.

Sam Altman parla al telefono con il logo ChatGPT

"Al momento, se si parla di questi argomenti con uno psicologo, un avvocato o un medico, tali conversazioni sono legalmente riservate", ha aggiunto.

Ha continuato: "Esiste la riservatezza medico-paziente, la riservatezza legale e così via. Non abbiamo ancora risolto questo problema relativo alle tue conversazioni con ChatGPT."

Altman osserva che, in caso di causa legale, OpenAI potrebbe essere legalmente obbligata a consegnare i registri delle conversazioni avute con ChatGPT. In particolare, l'azienda è già impegnata in una battaglia legale con il New York Times sulla conservazione delle conversazioni eliminate. A maggio, un tribunale ha ordinato a OpenAI di conservare "tutti i dati di log di output che avrebbero dovuto essere eliminati", anche se le leggi sulla privacy o sull'utente ne richiedono la cancellazione.

Intervenendo nel podcast, Altman ha espresso la sua convinzione che l'intelligenza artificiale dovrebbe avere "lo stesso concetto di privacy per le conversazioni con l'intelligenza artificiale che hai con uno psicologo o chiunque altro, qualcosa a cui nessuno avrebbe pensato nemmeno un anno fa". Ciò sottolinea l'importanza della legislazione e delle normative che regolano l'uso dell'intelligenza artificiale in settori sensibili come la salute mentale, per garantire la protezione della privacy e dei dati degli utenti.

Le persone utilizzano l'intelligenza artificiale per la psicoterapia?

Una giovane studentessa universitaria con i capelli castani lunghi fino alle spalle guarda il suo computer portatile mentre è seduta sul letto del suo dormitorio.

All'inizio di quest'anno, Anthropic, lo sviluppatore di Claude, concorrente di ChatGPT, ha analizzato 4.5 milioni di conversazioni per determinare se gli utenti si rivolgessero ai chatbot per conversazioni romantiche. Secondo lo studio, solo il 2.9% delle interazioni con l'intelligenza artificiale di Claude riguardava conversazioni romantiche, mentre la compagnia e i giochi di ruolo rappresentavano solo lo 0.5%.

Nel contesto di una causa legale, OpenAI potrebbe essere legalmente tenuta a consegnare i registri di una conversazione avuta da qualcuno con ChatGPT.

Sebbene la base utenti di ChatGPT superi di gran lunga quella di Claude, è ancora relativamente raro che le persone utilizzino questo chatbot per la comunicazione emotiva. Contrariamente a quanto affermato da Altman, uno studio congiunto di OpenAI e MIT ha affermato: "Il coinvolgimento emotivo con ChatGPT è raro nell'uso reale".

Il briefing aggiungeva: "I segnali emotivi (aspetti delle interazioni che indicano empatia, affetto o supporto) non erano presenti nella stragrande maggioranza delle conversazioni sulla piattaforma che abbiamo valutato, il che suggerisce che il coinvolgimento emotivo è un raro caso d'uso per ChatGPT".

Fin qui tutto bene. Ma ecco il punto: l'intelligenza artificiale conversazionale continuerà a migliorare in termini di interattività e sfumature, il che potrebbe facilmente portare più persone a ricorrervi per risolvere problemi personali.

Aggiornare GPT-5 ChatGPT sta per arrivare, portando con sé una serie di interazioni più naturali e un contesto più ampio. Quindi, anche se sarà più facile condividere più dettagli con l'intelligenza artificiale, gli utenti potrebbero voler riflettere attentamente su ciò che sono disposti a dire.

I commenti sono chiusi.