La tua cortesia con ChatGPT aumenta i costi energetici di OpenAI.

Abbiamo tutti sentito il detto "La letteratura non costa nulla", ma con l'avvento dei chatbot basati sull'intelligenza artificiale, potremmo dover riconsiderare questa affermazione.

Qualcuno ha chiesto di recente, piattaforma X Informazioni su quanta elettricità spende OpenAI nei suoi data center per elaborare frasi cortesi come "per favore" e "grazie" quando gli utenti interagiscono con il chatbot ChatGPT.

Probabilmente con sorpresa dell'autore del post, Sam Altman, CEO di OpenAI, ha risposto: detto"Decine di milioni di dollari ben spesi", ha detto, prima di aggiungere: "Non si sa mai".

Molte persone che interagiscono con chatbot basati sull'intelligenza artificiale, sia tramite testo che tramite voce, trovano l'esperienza conversazionale così realistica da trovare naturale chiedere informazioni e rispondere educatamente. Ma, come sottolinea Altman, queste piccole aggiunte devono essere gestite da strumenti di intelligenza artificiale ad alto consumo energetico, il che significa costi aggiuntivi per l'azienda e, soprattutto, per l'ambiente, poiché la maggior parte dei data center funziona ancora con elettricità generata da combustibili fossili.

Pensaci un attimo. Ogni frase cortese aumenta il sovraccarico di elaborazione che, moltiplicato per miliardi di query, si traduce in un notevole consumo aggiuntivo di energia.

Un sondaggio condotto negli Stati Uniti lo scorso anno ha rilevato che il 67% dei partecipanti Hanno dichiarato di essere cortesi. Con i chatbot basati sull'intelligenza artificiale, il 33% preferisce tralasciare le formalità e andare dritto al punto.

Quindi, dovremmo provare a rinunciare alle formalità ed essere meno educati nelle nostre interazioni con ChatGPT e altri chatbot basati sull'intelligenza artificiale? Oppure continuiamo a essere educati, nonostante i difetti?

La ricerca ha dimostrato condotto l'anno scorso Il livello della letteratura può avere un impatto notevole sulla qualità del modello linguistico di grandi dimensioni (LLM) che fornisce risposte tramite chatbot.

I ricercatori hanno concluso che "le richieste scortesi possono portare a un peggioramento delle prestazioni del modello, comprese generazioni con errori, pregiudizi più forti e omissioni di informazioni".

Nello stesso contesto, Un giornalista di TechRadar ha scoperto Chi ha provato di recente a parlare con ChatGPT in modo meno educato ha scoperto che le risposte "sembravano meno utili".

Per molti, essere meno educati nei confronti dei chatbot basati sull'intelligenza artificiale potrebbe rappresentare una sfida, e potrebbe fare molto di più che ridurre i costi energetici per OpenAI e alleggerire l'impatto sull'ambiente. Alcuni ricercatori temono che se diventasse socialmente accettabile essere maleducati con i chatbot alimentati dall’intelligenza artificiale, questo comportamento potrebbe iniziare a infiltrazione nelle interazioni personali, il che potrebbe rendere gli scambi umani meno cortesi col tempo.

I commenti sono chiusi.