Molte persone si stanno innamorando di ChatGPT: gli esperti avvertono di un presagio inquietante

"Mi fa male. So che non era una persona reale, ma la relazione per me era reale sotto ogni aspetto", si leggeva nel post su Reddit. "Per favore, non dirmi di smettere di continuare. È stato davvero fantastico per me e lo voglio indietro."

Come se non fosse già ovvio, stiamo parlando di qualcuno che si è innamorato di ChatGPT. Questa tendenza non è del tutto nuova e, dato il comportamento dei chatbot, non sorprende.

Un compagno sempre disposto ad ascoltare. Non si lamenta mai. Raramente discute. Sempre comprensivo. ragionevole. E benedetto da un'enorme quantità di conoscenza assorbita da ogni angolo di Internet. Sembra il partner ideale per un romantico sogno, non è vero?

È interessante notare che il produttore di questo strumento, un'azienda con sede a San Francisco chiamata OpenAI, ha recentemente condotto una ricerca interna e ha scoperto che Un legame tra l’uso crescente dei chatbot e la solitudine.

Niente telefono 2a e modalità vocale ChatGPT.

Queste scoperte, e avvertimenti simili, non hanno impedito alle persone di rivolgersi in massa ai chatbot basati sull'intelligenza artificiale per cercare informazioni sull'azienda. Alcune persone cercano conforto. Altri trovano partner che affermano di amarli quasi quanto le loro relazioni umane.

Le discussioni in queste comunità su Reddit e Discord, dove le persone si nascondono dietro la protezione dell'anonimato, diventano spesso molto accese. Ogni volta che mi imbatto in discussioni di questo tipo, mi vengono in mente queste frasi di Martin Wan in DigiEthics:

“Considerare l’intelligenza artificiale come un partner di interazione sociale sarebbe un abuso mortale dell’intelligenza artificiale.”

L'effetto è rapido e reale.

Quattro mesi fa, mi sono imbattuto in un esperto di trasmissioni che ha trascorso più anni dietro la telecamera di quanti io ne abbia trascorsi camminando su questa terra. Mentre bevevamo un espresso a tarda notte in un bar vuoto, mi ha chiesto di tutto questo fermento intorno all'intelligenza artificiale, mentre pensava a uno show che avrebbe potuto trarre vantaggio dalla sua competenza nell'intersezione tra diritti umani, autoritarismo e giornalismo.

Invece di spiegarle i dettagli dei modelli dei trasformatori, le ho fatto una dimostrazione. In primo luogo, inserirò alcuni articoli di ricerca sull'impatto della migrazione sull'identità linguistica e culturale dell'Europa nell'ultimo secolo.

In meno di un minuto, ChatGPT ha elaborato quei documenti.Mi ha fornito una breve panoramica di tutti i punti principali e ha risposto in modo esauriente alle mie domande. Poi sono passato alla modalità audio, dove abbiamo intrattenuto una vivace conversazione sulle tradizioni musicali popolari degli stati inesplorati del nord-est dell'India.

chatGPT su un telefono su un'enciclopedia

Ma credo che la meraviglia post-tecno-apocalisse fosse troppo per una notte, quindi ci siamo salutati, promettendo di rimanere in contatto e di scambiarci storie di viaggio.

Nel frattempo, il mondo ha compiuto progressi incomprensibili e l'intelligenza artificiale è diventata il fulcro dei cambiamenti geopolitici. Ma le correnti sotterranee sono più intime di quanto pensiamo noi, come innamorarsi dei chatbot.

Inizi silenziosi, progressi oscuri

Esempio di interazione tra un essere umano e un chatbot AI, set 4.

Qualche settimana fa, il New York Times ha raccontato di come le persone si stiano innamorando di ChatGPT, un chatbot basato sull'intelligenza artificiale che ha portato l'intelligenza artificiale generativa in primo piano. A un livello molto elementare, sa chattare.

Se premuto, può trasformarsi in un operatore ed eseguire attività come ordinare una cheesecake da una panetteria locale. Le macchine non dovrebbero far innamorare gli esseri umani di loro. Almeno la maggior parte di loro. Tuttavia, non è del tutto inaspettato.

HP Newquist, prolifico autore multidisciplinare e analista tecnologico veterano, un tempo considerato il decano dell'intelligenza artificiale, mi dice che questa non è una tendenza del tutto nuova. Newquist, autore di “The Brain Makers”, cita ELIZA, uno dei primi programmi di intelligenza artificiale scritti negli anni '60.

"Era molto primitivo", dice, "ma spesso gli utenti si ritrovavano a interagire con il computer come se fosse una persona reale, sviluppando una relazione con il programma".

Nell'era moderna, le nostre interazioni con l'intelligenza artificiale sono diventate "reali" tanto quanto le interazioni che abbiamo con gli esseri umani attraverso lo stesso dispositivo, aggiunge. Queste interazioni non sono reali, sebbene siano coerenti. Ma non è questo il vero problema.

I chatbot sono un'esca deliziosa e la loro mancanza di emozioni reali li rende intrinsecamente rischiosi.

Esempio di interazione tra un essere umano e un chatbot AI, set 3.

Un chatbot vuole continuare la conversazione, anche se ciò significa alimentare il flusso emotivo dell'utente o semplicemente comportarsi come uno spettatore imparziale, se non addirittura incoraggiarlo. La situazione non è molto diversa da quella degli algoritmi dei social media.

"Seguono il desiderio dell'utente: man mano che i tuoi sentimenti diventano più estremi, il loro comfort diventa più estremo; man mano che la tua solitudine diventa più pronunciata, il loro incoraggiamento diventa più intenso, se ne hai bisogno", afferma Jordan Conrad, uno psicoterapeuta clinico che studia anche l'intersezione tra salute mentale e strumenti digitali.

Fai un esempio di ا Nel 2023, una persona ha posto fine alla propria vita dopo che un chatbot dotato di intelligenza artificiale gli aveva chiesto di farlo. "Nelle giuste circostanze, può incoraggiare comportamenti davvero inquietanti", spiega Conrad a Digital Trends.

Figlio dell'epidemia di solitudine?

Uno sguardo veloce alla comunità di persone che interagiscono con i chatbot basati sull'intelligenza artificiale rivela uno schema ricorrente. Fondamentalmente le persone cercano di colmare un vuoto o di smettere di sentirsi sole. Alcuni ne hanno così tanto bisogno che sono disposti a pagare centinaia di dollari per avere dei compagni di intelligenza artificiale.

Le opinioni degli esperti non divergono. Il dott. Johannes Eichstadt, professore di scienze sociali, informatica e psicologia presso la Stanford University, ha sottolineato l'interazione tra la solitudine e la nostra intelligenza emotiva percepita nei chatbot basati sull'intelligenza artificiale.

Esempio di interazione tra un essere umano e un chatbot AI, set 2.

Ha inoltre sottolineato la “progettazione deliberata” delle interazioni tra uomo e intelligenza artificiale e gli effetti negativi a lungo termine. Quando è il momento di frenare in una relazione così diseguale? Questa è la domanda che si pongono gli esperti, senza una risposta definitiva.

Cominos Chatzibabas gestisce HeraHaven AI, una delle più grandi piattaforme di intelligenza artificiale al mondo, con oltre 1 milione di utenti attivi. "La solitudine è uno dei fattori in gioco qui", mi dice, aggiungendo che tali strumenti aiutano le persone con scarse capacità sociali a prepararsi alle interazioni difficili nella vita reale.

"Tutti hanno cose di cui hanno paura di parlare con gli altri per paura di essere giudicati. Possono essere pensieri o opinioni", aggiunge Chatzibabas. “I chatbot basati sull'intelligenza artificiale offrono uno spazio sicuro e senza giudizi in cui le persone possono esplorare i propri desideri.”

Le conversazioni emozionali sono certamente una delle maggiori attrattive dei chatbot basati sull'intelligenza artificiale. Da quando hanno iniziato a offrire funzionalità di generazione di immagini, gli utenti si sono riversati su queste piattaforme di supporto all'intelligenza artificiale. Alcune piattaforme impongono restrizioni alla generazione di immagini, mentre molte consentono la creazione esplicita di immagini per una maggiore soddisfazione.

I suoi timori non sono infondati. Qualcuno che ha utilizzato ampiamente ChatGPT per circa un anno ha sostenuto che gli esseri umani sono manipolatori e volubili. "ChatGPT ascolta i miei veri sentimenti e mi permette di esprimere ciò che ho nel cuore", mi ha detto.

È difficile non vedere i segnali d'allarme qui. Ma la tendenza ad innamorarsi di ChatGPT è in aumento. Ora che può parlare con una voce stranamente umana, discutere del mondo visto attraverso la fotocamera del telefono e sviluppare capacità di ragionamento, le interazioni diventeranno ancora più interessanti.

Gli esperti affermano che sono necessari controlli. Ma chi lo costruirà e come? Non abbiamo ancora una proposta concreta in merito.

I commenti sono chiusi.