Utilizzo dell'intelligenza artificiale: un uomo assassinato "parla" in tribunale durante la sentenza del suo assassino.

In quella che si ritiene essere una prima mondiale, l'intelligenza artificiale ha permesso a un uomo assassinato di rivolgersi al suo assassino durante l'udienza di condanna.

Christopher Pelkey ​​è stato ucciso a colpi di arma da fuoco in un episodio di violenza stradale a Chandler, in Arizona, quattro anni fa. Ma di recente, l’intelligenza artificiale è stata utilizzata per ricreare una versione digitale della vittima a cui è stato permesso di rilasciare una dichiarazione durante il processo, Secondo un sito web di notizie locali. Questa tecnologia solleva interrogativi etici e legali sull'uso dell'intelligenza artificiale nei procedimenti giudiziari.

La presentazione video includeva anche spezzoni reali di Belkey ​​per consentire a chi era in tribunale di comprendere meglio il suo carattere. Alcune di queste clip sono state utilizzate anche per creare l'immagine di Bilki generata dall'intelligenza artificiale, che puoi vedere qui sotto. Questo utilizzo innovativo dell'intelligenza artificiale rappresenta un'evoluzione significativa nel modo in cui le prove vengono presentate e influenzate in tribunale.

Chris Pelkey ​​è morto nel novembre 2021 in una sparatoria legata alla violenza stradale.

Di recente, la famiglia di Chris ha creato un video, generato tramite intelligenza artificiale, in cui lui stesso rilascia la propria dichiarazione sull'impatto delle sue azioni sulle vittime.

Ecco un estratto: guarda la storia completa stasera

Nel video riprodotto in tribunale, la versione AI di Bilkey dice: "A Gabriel Horcasitas, l'uomo che mi ha sparato, è un peccato che ci siamo incontrati quel giorno in quelle circostanze. In un'altra vita, saremmo potuti essere amici".

Continua: "Credo nel perdono e in Dio che perdona. L'ho sempre creduto e continuo a crederci".

Dopo aver visto il video, il giudice Todd Lang ha dichiarato: "Adoro questa IA. Grazie per questo. L'ho percepita come reale, e il suo apparente perdono per il signor Horcasitas riflette il personaggio di cui ho sentito parlare oggi".

Questa settimana, un giudice ha condannato Horcasitas a 10,5 anni di carcere per l'omicidio colposo di Chris Pelkey.

È stata la sorella di Chris Pelkey, Stacey, ad avere l'idea di usare l'intelligenza artificiale per creare una replica esatta del fratello da utilizzare in tribunale. Ha detto che era importante "non far dire a Chris quello che provavo, staccarmi e lasciarlo parlare perché ha detto cose che non sarebbero mai uscite dalla mia bocca, ma so che sarebbero uscite".

ha commentato Ann A. Scott Timmer, Presidente della Corte Suprema dell'Arizona, Quella L'intelligenza artificiale ha il potenziale per "creare significative efficienze nel sistema giudiziario e potrebbe aiutare chi non ha una formazione giuridica a presentare meglio i propri casi. Ecco perché siamo entusiasti del potenziale dell'IA".

"Ma l'intelligenza artificiale può ostacolare o addirittura sovvertire la giustizia se usata in modo inappropriato", ha aggiunto Timmer. "Un approccio misurato è la soluzione migliore. In quest'ottica, la Corte Suprema ha istituito una Commissione per l'IA per studiare l'uso dell'IA e formulare raccomandazioni su come utilizzarla al meglio... Chi utilizza l'IA, compresi i tribunali, è responsabile della sua accuratezza."

In effetti, se da un lato l'uso dell'intelligenza artificiale in questo modo conferisce un elemento potente e altamente personale ai procedimenti giudiziari, dall'altro solleva anche diverse preoccupazioni etiche e legali circa l'autenticità, l'impatto emotivo e l'applicazione appropriata. Di conseguenza, sembra probabile che prima o poi altri tribunali elaboreranno delle linee guida per i casi futuri, qualora decidessero di consentire l'acquisizione di dati delle vittime generati dall'intelligenza artificiale.

I commenti sono chiusi.