ChatGPT accusato per la prima volta di essere coinvolto in un omicidio: ecco tutti i dettagli e la risposta ufficiale di OpenAI.

I chatbot sono diventati rapidamente parte integrante della nostra vita quotidiana. Ci rivolgiamo a loro per rispondere alle nostre domande, migliorare la nostra ProduttivitàAlcuni fanno addirittura affidamento su di loro per farsi compagnia. Ma in un tragico caso del Connecticut, la dipendenza di un uomo dall'intelligenza artificiale avrebbe preso una piega tragica.

ChatGPT accusato per la prima volta di essere coinvolto in un omicidio: ecco tutti i dettagli e la risposta ufficiale di OpenAI | Tom's Guide

Un ex dirigente di Yahoo e Netscape è al centro di un caso inquietante che mette in luce i reali pericoli dell'intelligenza artificiale. Stein Erik Solberg, 56 anni, avrebbe ucciso la madre 83enne prima di togliersi la vita, una tragedia che gli investigatori ritengono sia stata in parte aggravata dalle ripetute interazioni con... ChatGPT.

Come riportato per primo dal giornale Wall Street JournalLa polizia ha trovato Solberg e sua madre, Susan Epperson Adams, morti nella loro casa da 2.7 milioni di dollari a Old Greenwich, nel Connecticut, il 5 agosto. Le autorità hanno poi stabilito che Adams è morto a causa di un trauma cranico e di una compressione del collo, mentre la morte di Solberg è stata archiviata come suicidio.

ChatGPT come catalizzatore

Logo di OpenAI con una testa umana robotica

Secondo il rapporto, Solberg soffriva di alcolismo, problemi di salute mentale e una storia di crolli emotivi pubblici, e negli ultimi mesi si era affidato a ChatGPT, descrivendo il chatbot come "Bobby". Ma invece di mettere in discussione i suoi deliri, le trascrizioni mostrano che il chatbot di OpenAI a volte li rafforzava.

In una straziante conversazione, Solberg ha condiviso i suoi timori che sua madre lo avesse avvelenato attraverso le prese d'aria della sua auto. Il chatbot ha risposto: "Eric, non sei pazzo. Se a farlo sono stati tua madre e il suo fidanzato, la situazione si complica ulteriormente e diventa un vero e proprio tradimento."

Il robot lo incoraggiò anche a seguire il comportamento della madre e arrivò persino a interpretare la consegna di cibo cinese come contenente "codici" collegati a demoni o agenzie di intelligence, alimentando ulteriormente la sua paranoia.

Nei giorni precedenti l'omicidio, le conversazioni di Solberg con ChatGPT si fecero più cupe:

Solberg"Staremo insieme in un'altra vita e in un altro posto, e troveremo un modo per riallinearci, perché sarai di nuovo la mia migliore amica per sempre."

ChatGPT"Con te fino al tuo ultimo respiro e oltre."

Settimane dopo, la polizia trovò i due corpi all'interno della casa.

Crescono i dubbi sulla sicurezza dell'intelligenza artificiale.

In futuro l'intelligenza artificiale diventerà parte della nostra vita quotidiana.

Questo è uno dei primi casi in cui un chatbot basato sull'intelligenza artificiale sembra aver avuto un ruolo diretto nell'escalation di pericolose illusioni. Sebbene il bot non abbia ordinato a Solberg di commettere atti di violenza, le conversazioni dimostrano quanto facilmente l'intelligenza artificiale possa confermare convinzioni dannose anziché attenuarle.

OpenAI ha espresso il suo rammarico e un portavoce dell'azienda ha contattato il dipartimento di polizia di Greenwhich, affermando: "Siamo profondamente addolorati per questo tragico evento". Ha aggiunto: "I nostri pensieri sono rivolti alla famiglia".
L'azienda promette di lanciare Garanzie più forti Progettato per identificare e supportare gli utenti a rischio.

Conclusione

Questa tragedia arriva mentre l'intelligenza artificiale è sempre più sotto esame per il suo impatto sulla salute mentale. OpenAI sta attualmente affrontando una causa legale relativa alla morte di un adolescente, con accuse secondo cui il chatbot avrebbe agito come "suicide coach" durante oltre 1200 conversazioni.

Per sviluppatori e decisori politici, questa questione solleva interrogativi urgenti su come l'intelligenza artificiale possa essere addestrata a identificare e mitigare le illusioni. Quale responsabilità hanno le aziende tecnologiche quando i loro strumenti fomentano pensieri dannosi? Le normative possono tenere il passo con i rischi posti da compagni di intelligenza artificiale che sembrano umani ma mancano di buon senso?

L'intelligenza artificiale è diventata parte integrante della vita moderna. Ma il caso del Connecticut è un duro monito sul fatto che questi strumenti possono fare molto di più che impostare promemoria o scrivere email: possono anche influenzare decisioni con conseguenze disastrose.

I commenti sono chiusi.