Google revoca il divieto di intelligenza artificiale nelle armi e nella sorveglianza: un futuro inquietante per la tecnologia avanzata

Google ha revocato il divieto imposto da tempo sull'uso dell'intelligenza artificiale nelle armi e nei sistemi di sorveglianza, segnalando un cambiamento radicale nella posizione etica dell'azienda sullo sviluppo dell'intelligenza artificiale che, secondo ex dipendenti ed esperti del settore, potrebbe rimodellare il modo in cui la Silicon Valley affronta la sicurezza dell'intelligenza artificiale.

Questa modifica, implementata silenziosamente questa settimana, elimina parti chiave di I principi dell'intelligenza artificiale di Google che proibiva esplicitamente all'azienda di sviluppare intelligenza artificiale per armi o sorveglianza. Questi principi, che È stata fondata nel 2018., che funge da punto di riferimento del settore per lo sviluppo responsabile dell'intelligenza artificiale.

Tracy Pizzo-Fry, che ha trascorso cinque anni implementando i principi di intelligenza artificiale nativa di Google come direttore senior della gestione dei prodotti in uscita, dell'impegno e dell'intelligenza artificiale responsabile presso Google Cloud, ha scritto in un post su Cielo blu"L'ultimo baluardo è caduto. Google è stata davvero l'unica a essere così chiara sui suoi impegni nei confronti di ciò che costruirà."

I principi rivisti eliminano quattro divieti specifici: tecnologie che possono causare danni alla salute pubblica; applicazioni di armi; sistemi di sorveglianza; e tecnologie che violano il diritto internazionale e i diritti umani. Al loro posto, si afferma: Google Ora lavorerà per “attenuare le conseguenze indesiderate o dannose” e sarà coerente con i “principi ampiamente accettati del diritto internazionale e dei diritti umani”.

L'allentamento delle restrizioni etiche sull'intelligenza artificiale da parte di Google: cosa significa per le tecnologie di sorveglianza e le applicazioni militari?

Questo cambiamento arriva in un momento particolarmente delicato, poiché le capacità dell'intelligenza artificiale stanno rapidamente avanzando e i dibattiti sui controlli appropriati per questa tecnologia si stanno intensificando. La tempistica ha sollevato interrogativi sulle motivazioni di Google, sebbene l'azienda sostenga che questi cambiamenti siano in fase di sviluppo da molto tempo.

"Siamo in una situazione in cui c'è molta sfiducia nei confronti delle grandi aziende tecnologiche, e ogni passo che sembra rimuovere il controllo crea ulteriore sfiducia", ha dichiarato Bezo-Fry in un'intervista a VentureBeat. Ha sottolineato che chiari confini etici erano essenziali per costruire sistemi di intelligenza artificiale affidabili durante il suo periodo in Google.

I principi originali sono emersi nel 2018 in mezzo alle proteste dei dipendenti Progetto Maven, un contratto con il Pentagono che include l'uso dell'intelligenza artificiale per analizzare le riprese dei droni. Sebbene Google abbia infine rifiutato di rinnovare il contratto, le nuove modifiche potrebbero segnalare un'apertura a partnership militari simili.

L'emendamento mantiene alcuni elementi del precedente quadro etico. Per Google, ma passa dal divieto di applicazioni specifiche all'enfasi sulla gestione del rischio. Questo approccio è più in linea con gli standard del settore come Quadro di gestione del rischio AI del NIST, anche se i critici sostengono che offre restrizioni meno severe sulle app potenzialmente dannose.

"Le considerazioni etiche sono importanti tanto quanto la creazione di una buona intelligenza artificiale, anche se la precisione non è la stessa", ha osservato Bezo Fry, sottolineando come le considerazioni etiche migliorino l'efficacia e l'accessibilità dei prodotti di intelligenza artificiale.

Dal progetto Maven alla trasformazione delle politiche: il percorso di riforma dell'etica dell'intelligenza artificiale di Google

Gli osservatori del settore affermano che questo cambiamento di politica potrebbe influenzare il modo in cui altre aziende tecnologiche affrontano l'etica dell'intelligenza artificiale. I principi originali di Google hanno creato un precedente per l'autoregolamentazione aziendale nello sviluppo dell'intelligenza artificiale, con molte aziende che si rivolgono a Google per una guida sull'implementazione responsabile dell'intelligenza artificiale.

L'emendamento riflette le tensioni più ampie nel settore tecnologico tra rapida innovazione e vincoli etici. Con l'intensificarsi della concorrenza nello sviluppo dell'intelligenza artificiale, le aziende sono sotto pressione per bilanciare uno sviluppo responsabile con le richieste del mercato.

"Sono preoccupato per la rapidità con cui le cose si diffonderanno nel mondo e se Plus e Plus saranno liberate dai vincoli", ha affermato Pitso Frei, esprimendo preoccupazione per la pressione competitiva a lanciare rapidamente prodotti di intelligenza artificiale senza valutare adeguatamente le potenziali conseguenze.

Il dilemma etico delle Big Tech: il cambiamento di politica di Google sull'intelligenza artificiale stabilirà un nuovo standard di settore?

La revisione solleva anche interrogativi sui processi decisionali interni di Google e su come i dipendenti possano gestire le considerazioni etiche senza divieti espliciti. Durante il suo periodo in Google, Bezo-Fry ha istituito processi di revisione che hanno riunito diverse prospettive per valutare i potenziali impatti delle applicazioni di intelligenza artificiale.

Sebbene Google mantenga il suo impegno per uno sviluppo responsabile dell'IA, la rimozione di specifici divieti rappresenta un significativo allontanamento dal suo precedente ruolo di leadership nel definire chiari limiti etici per le applicazioni di IA. Con il continuo progresso dell'IA, il settore sta monitorando l'impatto di questo cambiamento sul più ampio panorama dello sviluppo e della regolamentazione dell'IA.

I commenti sono chiusi.