Il modello Google Gemini sfruttato per scopi dannosi: possibilità di hackerare e controllare i sistemi della smart home
In passato, le notizie sull'hacking facevano notizia, ma sono diventate così comuni che ormai non sorprendono più la maggior parte delle persone. Solo quando colpiscono una grande azienda e milioni di persone, il fenomeno acquista rilevanza, come è successo in... Il caso di hacking di T-Mobile ha colpito 64 milioni di clientiPoiché i tuoi dati possono essere compromessi in moltissimi modi, quasi ogni tipo di servizio o prodotto digitale è dotato di misure di sicurezza per impedirlo.
Naturalmente, questi prodotti non sono perfetti e ci sono sempre modi per sferrare attacchi dannosi se un aggressore è sufficientemente intelligente. Con l'emergere di modelli linguistici di grandi dimensioni (LLM) come Gemini di Google, c'è sempre la possibilità che questi strumenti di intelligenza artificiale possano essere utilizzati per scopi dannosi. Sebbene non abbiamo ancora visto nulla di rilevante, ne abbiamo avuti. Wired ha evidenziato un progetto di ricerca Gemini viene utilizzato per accedere alla tua vita in modi che non avresti mai immaginato. Questa ricerca dimostra come Gemini potrebbe essere sfruttato per controllare vari aspetti della tua vita digitale, inclusi i dispositivi intelligenti di casa, sollevando preoccupazioni sulla sicurezza e la privacy nell'era dell'intelligenza artificiale.
Questo tipo di attacco potrebbe diventare più pericoloso.
Ben Nassi, Stav Cohen e Or Yair dell'Università di Tel Aviv hanno presentato il loro progetto, "L'invito è tutto ciò di cui hai bisogno"Che utilizza Gemini per accedere e controllare una casa intelligente. La parte interessante è che l'attacco non parte dall'interno della casa, ma si affida a un altro prodotto Google non correlato per avviare il processo.
In parole povere, un'azione indesiderata viene attivata quando un utente utilizza Gemini con un determinato prompt. La cosa intelligente di tutto questo è che è nascosta e l'utente non può vederla. Spiega: Il team di ricerca spiega nel dettaglio come funziona., dove il "promptware" utilizza un modello linguistico di grandi dimensioni (LLM) per eseguire attività dannose.
Utilizzando "l'avvelenamento del contesto a breve termine" e "l'avvelenamento della memoria a lungo termine", i ricercatori hanno scoperto di poter far eseguire a Gemini azioni non originariamente incluse nel prompt. Questo potrebbe eliminare eventi da varie app Google, aprire una chiamata Zoom, fornire la posizione di un utente, controllare prodotti per la domotica e altro ancora. Questo tipo di attacco, noto come "iniezione indiretta di prompt", sfrutta le vulnerabilità nel modo in cui i modelli linguistici di grandi dimensioni interagiscono con i dati esterni.
Il team di ricerca dimostra anche come funziona il tutto attraverso straordinari video tutorial. È un modo semplice ed efficace per devastare la vita di qualcuno senza che lo sappia. Le persone sono più attente ai metodi di hacking tradizionali, il che significa che qualcosa del genere potrebbe essere estremamente inaspettato.
Fortunatamente, il team di ricerca ha segnalato questi problemi a Google a febbraio e ha anche incontrato il team per risolverli. Google afferma di aver "implementato difese multilivello, tra cui: conferme utente migliorate per azioni sensibili; gestione avanzata degli URL con policy di sanificazione e livello di attendibilità; e rilevamento avanzato dell'iniezione di claim tramite classificatori di contenuti".
Il progetto evidenzia "tecniche teoriche di claim injection indiretta che interessano gli assistenti basati su modelli linguistici di grandi dimensioni", che potrebbero diventare più comuni nel prossimo futuro, man mano che gli strumenti di intelligenza artificiale diventeranno più sofisticati. Anche questa è una novità e richiederà un monitoraggio più approfondito per evitare che causi danni più gravi in futuro. Poiché facciamo sempre più affidamento sull'intelligenza artificiale nella nostra vita quotidiana, comprendere e mitigare questi potenziali rischi diventa fondamentale.
Se sei interessato alle vulnerabilità della sicurezza, puoi sempre Invia ciò che trovi a Google Attraverso il suo programma Bug Hunters, ci sono diversi modi per contribuire, poiché l'intelligenza artificiale rappresenta solo una piccola parte di ciò che viene attualmente monitorato. Se si tratta di qualcosa di più serio, Google offre anche una ricompensa per il tuo lavoro, rendendo lo sforzo ancora più proficuo.
I commenti sono chiusi.