Usare ChatGPT ti rende più stupido? Uno studio del MIT suggerisce che le persone che si affidano a strumenti di intelligenza artificiale peggiorano le proprie capacità.

Secondo un recente studio condotto dai ricercatori del Massachusetts Institute of Technology, l'uso di ChatGPT e di altri strumenti di intelligenza artificiale potrebbe portare a una riduzione dell'attività cerebrale e potenzialmente a un'atrofia cerebrale a lungo termine.

0

Con il grande boom della tecnologia Intelligenza artificiale generativaI ricercatori stanno correndo per studiare gli effetti di questi strumenti sugli utenti. Studi precedenti hanno indicato che l'eccessiva dipendenza da ChatGPT Strumenti simili possono portare a: Comportamenti di dipendenza e danni alla salute mentale, atrofia del pensiero critico e sentimenti di solitudine e isolamento sociale.

Un nuovo studio evidenzia i potenziali rischi degli strumenti LLM (Large Language Model) come ChatGPT. I ricercatori del Media Lab del Massachusetts Institute of Technology hanno scoperto che L'utilizzo di ChatGPT e strumenti simili per scrivere articoli ha portato a una significativa diminuzione dell'attività cerebrale. Lo studio, intitolato “L'effetto di ChatGPT sul cervello: accumulo di debito cognitivo quando si utilizza un assistente AI per la scrittura di saggi”...che le persone che si affidavano a strumenti di intelligenza artificiale peggioravano nella scrittura di saggi quando veniva chiesto loro di svolgere lo stesso compito senza l'ausilio di ChatGPT o strumenti simili.

Il logo di ChatGPT visualizzato sullo schermo di uno smartphone accanto alla tastiera di un laptop.

Lo studio ha coinvolto un piccolo campione di 54 persone di età compresa tra 18 e 39 anni. I partecipanti sono stati divisi in tre gruppi: un gruppo "solo cervello" (che si basava esclusivamente sulle proprie capacità mentali), un gruppo in grado di utilizzare un motore di ricerca tradizionale e un gruppo in grado di utilizzare strumenti basati su modelli linguistici estesi (LLM) come ChatGPT.

I risultati hanno mostrato che coloro che hanno utilizzato modelli linguistici di grandi dimensioni (LLM) per completare il compito hanno sperimentato un carico cognitivo inferiore del 32% rispetto a coloro che hanno utilizzato interfacce software tradizionali. Hanno anche riportato una minore frustrazione durante il processo.

Una scoperta chiave è che le persone che hanno utilizzato modelli linguistici di grandi dimensioni (LLM) durante lo studio hanno impiegato meno sforzo mentale per acquisire informazioni. Sebbene ciò non sia sorprendente, spiega perché alcune persone siano tentate di utilizzare strumenti di intelligenza artificiale per completare i compiti.

Oltre a registrare una maggiore attività cerebrale, i partecipanti al gruppo “solo cervello” hanno dichiarato una maggiore soddisfazione per quanto riguarda le considerazioni etiche.

Indubbiamente, i modelli linguistici di grandi dimensioni (LLM) hanno ridotto lo sforzo necessario per rispondere alle domande dei partecipanti rispetto a un motore di ricerca tradizionale. Tuttavia, questa comodità ha avuto un costo cognitivo, riducendo la propensione degli utenti a valutare criticamente i risultati o le "opinioni" degli LLM (risposte probabilistiche basate su set di dati di training). Ciò evidenzia un'evoluzione preoccupante dell'effetto "camera dell'eco": anziché scomparire, si è adattato per modellare l'esposizione degli utenti attraverso contenuti curati algoritmicamente. Ciò che viene considerato "migliore" è in ultima analisi influenzato dalle priorità dei collaboratori degli LLM.

A prima vista, le conclusioni dello studio sembrano chiare. Non sorprende che scrivere un saggio richieda uno sforzo mentale maggiore rispetto al semplice utilizzo di uno strumento per scrivere lo stesso saggio. Sono certo che pagare qualcun altro per scrivere il saggio richiederebbe anche un impegno mentale minimo.

Applicazioni di assistenza AI: ChatGPT, Anthropic Cloud, Google Gemini, Microsoft Copilot, Perplexity, Poe.

Ma la scienza non si limita all'intuizione. Richiede prove e verifiche di ipotesi. Dato il potenziale di cambiamento delle politiche governative e degli standard educativi in ​​base agli effetti di ChatGPT e strumenti simili, è importante raccogliere quante più informazioni possibili.

I ricercatori del MIT lo hanno confermato nelle conclusioni dello studio.

"Riteniamo che siano necessari studi longitudinali per comprendere l'impatto a lungo termine degli LLM sul cervello umano, prima che gli LLM possano essere riconosciuti come qualcosa di positivo per gli esseri umani."

Lo studio del MIT non è ancora stato sottoposto a revisione paritaria e il campione era piccolo, quindi, sebbene rappresenti un buon passo avanti verso la raccolta di informazioni rilevanti, necessita di ulteriori approfondimenti.

ChatGPT rende le persone più stupide?

Lo studio ha anche esaminato l'impatto dell'utilizzo di un modello linguistico di grandi dimensioni (LLM) come ChatGPT per scrivere un saggio sulle prestazioni quando ai partecipanti è stato poi chiesto di completare lo stesso compito senza l'assistenza dell'intelligenza artificiale.

I ricercatori hanno suggerito che questa tendenza possa essere attribuita al "depauperamento cognitivo" dell'IA. In altre parole, l'uso di strumenti come ChatGPT riduce la capacità di pensiero, portando potenzialmente a un declino a lungo termine delle capacità cognitive. Questo fenomeno, che gli esperti chiamano "atrofia cerebrale digitale", suggerisce che un eccessivo affidamento sull'IA potrebbe compromettere le nostre capacità mentali di base.

In uno studio condotto dai ricercatori Microsoft in collaborazione con la Carnegie Mellon University, sono stati esaminati gli effetti dell'IA generativa sul pensiero critico. I ricercatori hanno confrontato gli effetti dell'utilizzo dell'IA generativa con l'atrofia muscolare, spiegando che il mancato utilizzo delle capacità cognitive porta a debolezza, proprio come il mancato utilizzo dei muscoli.

Se i dati continueranno a supportare la teoria secondo cui l'uso di modelli di intelligenza artificiale generativa porta a un declino a lungo termine dell'attività cerebrale e del pensiero critico, le conseguenze potrebbero essere estese. Le istituzioni educative e le aziende devono rivalutare il modo in cui integrano questi strumenti per garantire che non ostacolino lo sviluppo cognitivo.

Un sondaggio condotto dal quotidiano ha rivelato che The Guardiane lo pubblicò Commissione IAStrumenti di intelligenza artificiale generativa come ChatGPT vengono spesso utilizzati dagli studenti per barare. Questo uso non etico solleva serie preoccupazioni sull'integrità accademica e sull'impatto dell'intelligenza artificiale sui valori educativi.

Se studenti e lavoratori fanno eccessivo affidamento su ChatGPT e strumenti simili, potrebbero perdere la capacità di svolgere determinati compiti in autonomia. Questa dipendenza potrebbe portare a un declino di competenze di base come la scrittura, il pensiero critico e la risoluzione dei problemi, compromettendo la competitività nel mercato del lavoro.

Lascia una risposta

لن يتم نشر عنوان بريدك الإلكتروني.