Come riconoscere l'hype sull'intelligenza artificiale ed evitare la "bufala" secondo due esperti.
Nel loro nuovo libro, The AI Con, i critici dell'intelligenza artificiale Emily Binder e Alex Hanna sfatano il mistero dell'intelligenza artificiale generativa.
"L'intelligenza artificiale, francamente, è una truffa: una merce che ti viene venduta per riempire le tasche di qualcuno."
Questa è l'essenza dell'argomentazione presentata dalla linguistica. Emilia Bender e sociologo Alex Hanna Nel loro nuovo libro La truffa dell'IA. È una guida utile per chiunque abbia avuto a che fare nella propria vita con tecnologie spacciate per intelligenza artificiale e per chiunque abbia messo in dubbio la loro vera utilità, ovvero la maggior parte di noi. Bender è un professore all'Università di Washington, nominato una delle persone più influenti nel campo dell'intelligenza artificiale dalla rivista Time, mentre Hanna è il direttore della ricerca presso l'organizzazione no-profit Istituto di ricerca sull'intelligenza artificiale distribuita Ex membro del team Ethical AI di Google.

L'enorme popolarità di ChatGPT alla fine del 2022 ha innescato un nuovo ciclo di clamore mediatico attorno all'intelligenza artificiale. L'hype, come lo definiscono gli autori, è l'"entusiasmo" per una tecnologia che si è convinti di dover acquistare o in cui si investe "per non perdersi il divertimento, la ricompensa in denaro, il ritorno sull'investimento o la quota di mercato". Ma questa non è la prima volta, e probabilmente non sarà l'ultima, che scienziati, leader governativi e gente comune si sentono attratti e preoccupati dall'idea dell'apprendimento automatico e dell'intelligenza artificiale.
Binder e Hanna fanno risalire le radici dell'apprendimento automatico agli anni '50, quando il matematico John McCarthy coniò il termine intelligenza artificiale. Fu un'epoca in cui gli Stati Uniti cercavano di finanziare progetti che avrebbero aiutato il paese a ottenere una sorta di superiorità sui sovietici dal punto di vista militare, ideologico e tecnologico. "Non è semplicemente uscito dalla testa di Zeus o qualcosa del genere. Ha una storia più lunga", ha detto Hanna a CNET. "Questo non è certo il primo ciclo di hype con, cito, l'intelligenza artificiale."
L'attuale ciclo di hype è alimentato da miliardi di dollari di investimenti di capitale di rischio in startup come OpenAI e da giganti della tecnologia come Meta, Google e Microsoft che investono miliardi nella ricerca e nello sviluppo dell'intelligenza artificiale. Il risultato è chiaro, come dimostrano le ultime Telefoni I computer portatili e gli aggiornamenti software sono saturi di AI wash. Non ci sono segnali che facciano presagire un rallentamento nella ricerca e nello sviluppo dell'intelligenza artificiale, grazie alla crescente spinta a superare la Cina nello sviluppo dell'intelligenza artificiale. In realtà questo non è il primo ciclo di clamore mediatico.
Naturalmente, l'intelligenza artificiale generativa del 2025 è molto più avanzata del chatbot per psicoterapia Eliza che per primo aveva affascinato gli scienziati negli anni 'XNUMX. I dirigenti e i dipendenti aziendali di oggi sono inondati dal clamore mediatico, da una forte dose di paura di perdersi qualcosa e da una terminologia apparentemente complessa ma spesso abusata. Ascoltando i leader della tecnologia e gli appassionati di intelligenza artificiale, potrebbe sembrare che l'intelligenza artificiale ruberà il vostro lavoro e farà risparmiare denaro alla vostra azienda. Ma gli autori sostengono che nessuna delle due ipotesi è del tutto probabile, e questo è uno dei motivi per cui è importante riconoscere e andare oltre il clamore mediatico.
Come possiamo identificare l'hype sull'IA? Ecco alcuni segnali rivelatori, secondo Binder e Hanna, che condividiamo di seguito. Gli autori delineano una serie di domande da porsi e strategie per identificare l'hype sull'IA nel loro libro. Disponibile ora negli Stati Uniti.
Prestate attenzione al linguaggio che umanizza l'intelligenza artificiale.
L'umanizzazione, ovvero il processo di attribuzione di qualità o caratteristiche simili a quelle umane a un oggetto inanimato, è una parte importante del clamore suscitato dall'intelligenza artificiale. Un esempio di questo tipo di linguaggio è quando le aziende di intelligenza artificiale affermano che i loro chatbot ora possono "vedere" e "pensare".
Questi confronti possono essere utili quando si cerca di descrivere la capacità dei nuovi programmi di intelligenza artificiale di identificare oggetti o modelli di intelligenza artificiale con ragionamenti approfonditi, ma possono anche essere fuorvianti. I chatbot basati sull'intelligenza artificiale non possono vedere o pensare perché non hanno una mente. Anche l'idea delle reti neurali, come sottolinea Hannah nella nostra intervista e nel libro, si basa sulla comprensione umana dei neuroni risalente agli anni '50; non spiega esattamente come funzionano i neuroni, ma può ingannarci facendoci credere che ci sia una mente dietro la macchina.
Siamo predisposti a questa convinzione a causa del modo in cui elaboriamo il linguaggio in quanto esseri umani. Siamo condizionati a immaginare che ci sia una mente dietro il testo che vediamo, anche quando sappiamo che è stato generato da un'intelligenza artificiale, ha affermato Bender. "Interpretiamo il linguaggio sviluppando nella nostra mente un modello di chi era il parlante", ha aggiunto Bandar.
In questi modelli utilizziamo la nostra conoscenza della persona che parla per creare un significato, non solo il significato delle parole che dice. "Quindi, quando ci imbattiamo in un testo sintetico generato da qualcosa come ChatGPT, faremo la stessa cosa", ha affermato Bandar. "È molto difficile ricordarci che la mente non esiste. È solo un costrutto che abbiamo creato."
Gli autori sostengono che uno dei motivi per cui le aziende di intelligenza artificiale cercano di convincerci che i loro prodotti sono simili agli esseri umani è che questo getta le basi per convincerci che l'intelligenza artificiale può sostituire gli esseri umani, sia nel lavoro che come creatori. È convincente credere che l'intelligenza artificiale possa rappresentare la soluzione magica a problemi complessi in settori critici come l'assistenza sanitaria e i servizi governativi.
Ma il più delle volte, sostengono gli autori, l'intelligenza artificiale non viene utilizzata per risolvere alcun problema. L'intelligenza artificiale viene venduta per la sua efficienza, ma i servizi di intelligenza artificiale finiscono per sostituire i lavoratori qualificati con macchine a scatola nera che richiedono notevoli quantità di cure da parte di lavoratori con contratti a basso salario o freelance. Come ha detto Hannah nella nostra intervista: "L'intelligenza artificiale non ti ruberà il lavoro, ma lo peggiorerà".
Fate attenzione all'espressione "superintelligenza".
Se gli esseri umani non sono in grado di fare qualcosa, bisognerebbe essere cauti nell'affermare che l'intelligenza artificiale sia in grado di farlo. "Superintelligenza è un termine molto pericoloso, nella misura in cui suggerisce che una tecnologia renderà gli esseri umani inutili", ha affermato Hannah. In certi ambiti, come il pattern matching su larga scala, i computer sono molto bravi. Ma se c'è l'idea che ci sarà una poesia rivoluzionaria, o un'idea rivoluzionaria per la ricerca o la pratica scientifica, questa è chiaramente una promozione. "Non stiamo parlando di aerei come super-aerei o di governanti come super-misure", ha aggiunto Bender. "Sembra che ciò accada solo nel campo dell'intelligenza artificiale."
Quando si parla di intelligenza artificiale generale, spesso si sente parlare di intelligenza artificiale definita "superintelligenza". Molti dirigenti trovano difficile definire esattamente cosa sia l'intelligenza artificiale generale (AGI), ma si tratta essenzialmente della forma più avanzata di intelligenza artificiale, potenzialmente in grado di prendere decisioni e gestire compiti complessi. Non ci sono ancora prove che siamo minimamente vicini a un futuro reso possibile dall'intelligenza artificiale globale, ma è un termine di moda molto diffuso.
Molte di queste dichiarazioni futuristiche dei leader dell'intelligenza artificiale prendono in prestito elementi dalla fantascienza. Sia i sostenitori che i pessimisti (come Binder e Hannah descrivono gli entusiasti dell'intelligenza artificiale e coloro che si preoccupano dei potenziali danni) si basano su scenari fantascientifici. I sostenitori immaginano una società futura alimentata dall'intelligenza artificiale. I pessimisti si lamentano di un futuro in cui i robot dotati di intelligenza artificiale conquisteranno il mondo e annienteranno l'umanità.
Secondo gli autori, il nesso comune è la convinzione radicata che l'intelligenza artificiale sia più intelligente degli esseri umani e sia inevitabile. "Una delle cose che vediamo più spesso in questo dibattito è l'idea che il futuro sia già prestabilito e che tutto dipenda dalla velocità con cui riusciamo ad arrivarci", ha affermato Bender. "Poi c'è questa affermazione che questa particolare tecnologia sia un passo in quella direzione, ed è tutta una trovata di marketing. È utile riuscire a guardare oltre."
Uno dei motivi per cui l'intelligenza artificiale è così popolare è che un assistente AI funzionale e autonomo significherebbe che le aziende di intelligenza artificiale manterrebbero le promesse di innovazione rivoluzionaria fatte ai loro investitori. Pianificare questo futuro, utopico o distopico che sia, spinge gli investitori a guardare avanti, mentre le aziende bruciano miliardi di dollari e ammettono che non raggiungeranno i loro obiettivi in termini di emissioni di carbonio. Nel bene o nel male, la vita non è fantascienza. Quando senti qualcuno affermare che il suo prodotto di intelligenza artificiale è tratto direttamente da un film, è un buon segno avvicinarlo con scetticismo.
Richiedi informazioni sugli input dell'IA e su come valutarne gli output.
Uno dei modi più semplici per individuare una frode di marketing basata sull'intelligenza artificiale è verificare se l'azienda ne divulga il funzionamento. Molte aziende di intelligenza artificiale non divulgano i contenuti utilizzati per addestrare i loro modelli. Ma solitamente rivelano come l'azienda utilizza i tuoi dati e talvolta si vantano di come i suoi modelli superino quelli della concorrenza. È da qui che dovresti iniziare la tua ricerca, solitamente dalle loro informative sulla privacy.
Una delle lamentele e preoccupazioni più grandi da parte dei creatori riguarda il modo in cui vengono addestrati i modelli di intelligenza artificiale. Sono numerose le cause legali legate alla presunta violazione del copyright e ci sono molte preoccupazioni circa la parzialità dei chatbot basati sull'intelligenza artificiale e il loro potenziale danno. "Se si vuole creare un sistema progettato per far progredire le cose anziché riprodurre le ingiustizie del passato, bisogna iniziare a organizzare i dati", afferma Bender. Invece, le aziende di intelligenza artificiale stanno prendendo il controllo di "tutto ciò che non è installato su Internet", afferma Hannah.
Se senti parlare per la prima volta di un prodotto di intelligenza artificiale, una cosa a cui dovresti prestare particolare attenzione sono le statistiche che ne evidenziano l'efficacia. Come molti altri ricercatori, Bender e Hannah sottolineano che qualsiasi risultato senza citazione è un campanello d'allarme. "Ogni volta che qualcuno ti vende qualcosa e non ti dà informazioni sul suo valore, ti trovi su un terreno traballante", afferma Bender.
Può essere frustrante e deludente quando le aziende di intelligenza artificiale non divulgano informazioni specifiche sul funzionamento dei loro prodotti e su come sono stati sviluppati. Ma riconoscere queste lacune nella loro strategia di vendita può aiutare a fare chiarezza, anche se sarebbe meglio avere le informazioni. Per saperne di più, vedere Glossario ChatGPT Il nostro completo e come disattivarlo L'intelligenza di Apple.
I commenti sono chiusi.