Studio: l'uso eccessivo di ChatGPT può portare ad un attaccamento emotivo
Sembra che OpenAI annunci settimanalmente nuovi modelli di intelligenza artificiale per migliorare il suo chatbot ChatGPT per i suoi 400 milioni di utenti. Tuttavia, la facilità con cui viene utilizzato questo strumento di intelligenza artificiale suggerisce che anche un uso eccessivo di una cosa buona può portare a un abuso.
L'azienda di intelligenza artificiale sta ora analizzando le potenziali ripercussioni psicologiche che ChatGPT potrebbe avere sui suoi utenti. È stato pubblicato OpenAI conseguenze Studio in due parti Condotto in collaborazione con il MIT Media Lab, ha rivelato un legame tra l'aumento dell'uso del chatbot ChatGPT e l'aumento del senso di solitudine tra gli utenti.
Ciascuna organizzazione ha condotto uno studio indipendente e i risultati sono stati poi combinati in una conclusione consolidata. Nel corso di un mese, lo studio di OpenAI ha esaminato "più di 40 milioni di interazioni con ChatGPT", che non hanno comportato l'intervento umano per preservare la privacy dell'utente. Nel frattempo, il MIT ha monitorato quasi 1000 partecipanti utilizzando ChatGPT Oltre 28 giorni. Questi studi non sono ancora stati sottoposti a revisione paritaria.
Lo studio del MIT ha approfondito le varie funzioni di utilizzo che possono avere un impatto sull'esperienza emotiva degli utenti quando interagiscono con ChatGPT, tra cui l'uso di testo o voce. I risultati hanno evidenziato che entrambi i media avevano il potenziale di indurre sentimenti di solitudine o di influenzare l'interazione sociale degli utenti durante il periodo di studio. Anche l'intonazione della voce e la scelta dell'argomento erano un importante elemento di confronto.
L'utilizzo di un tono neutro nella modalità vocale di ChatGPT aveva meno probabilità di comportare un risultato emotivo negativo per i partecipanti. Nel frattempo, lo studio ha rilevato un collegamento tra i partecipanti che hanno conversazioni di persona con ChatGPT e una maggiore probabilità di sentirsi soli; Tuttavia, questi effetti furono di breve durata. Anche coloro che utilizzano la chat di testo per parlare di argomenti generali hanno riscontrato un aumento dei casi di dipendenza emotiva dal chatbot.
Lo studio ha inoltre rilevato che coloro che hanno dichiarato di considerare ChatGPT un amico e coloro che avevano già una forte tendenza a sviluppare un attaccamento emotivo nelle relazioni, avevano maggiori probabilità di sentirsi soli ed emotivamente dipendenti dal chatbot durante la partecipazione allo studio.
Lo studio di OpenAI ha aggiunto ulteriore contesto, poiché i suoi risultati hanno generalmente indicato che le interazioni con ChatGPT per scopi emotivi erano rare. Inoltre, lo studio ha scoperto che anche tra gli utenti più assidui che utilizzavano la modalità vocale avanzata del chatbot e che erano più propensi a considerare ChatGPT un amico, questo gruppo di partecipanti ha sperimentato risposte emotive inferiori durante l'interazione con il chatbot.
OpenAI ha concluso che l'obiettivo di questi studi è comprendere le sfide che potrebbero presentarsi con la sua tecnologia, nonché essere in grado di identificare previsioni ed esempi di come i suoi modelli potrebbero essere utilizzati.
Mentre OpenAI sottolinea che il suo studio basato sull’interazione imita i comportamenti delle persone reali, più di qualche essere umano reale ha ammesso nei forum pubblici, Mi piace Reddit, utilizzando ChatGPT invece di rivolgersi a uno psicologo per condividere i propri sentimenti.
I commenti sono chiusi.