AirPods con fotocamere per l'intelligenza visiva: la rivoluzione di Apple nella sicurezza personale?

Ecco perché l'inserimento delle fotocamere negli AirPods da parte di Apple potrebbe essere una grande idea

Riepilogo:

  • Secondo quanto riferito, Apple sta ancora lavorando all'integrazione delle fotocamere negli AirPods.
  • L'intelligenza visiva di iOS 18 è al centro dei piani di Apple.
  • Le funzionalità sono ancora "distanti generazioni".

Il "cosa" lo sappiamo già da tempo: Apple sta sperimentando l'integrazione delle fotocamere negli AirPods, e ora potremmo sapere anche il "perché". Un nuovo rapporto fa luce sui piani di Apple per i futuri AirPods e, se la tecnologia darà i risultati sperati, potrebbe rivelarsi una funzionalità di sicurezza personale davvero importante. Apple sta sviluppando gli AirPods con fotocamere integrate, rendendoli dispositivi più intelligenti e capaci.

Tuttavia, c'è un'importante precisazione: queste funzionalità sono ancora "lontane almeno generazioni dal raggiungere il mercato".

Il rapporto proviene da Mark Gorman, un uomo ben collegato a Bloomberg, che afferma che "il piano definitivo di Apple per l'intelligenza visiva va ben oltre l'iPhone". E gli AirPods svolgono un ruolo importante in questo piano. Le indiscrezioni indicano che l'azienda sta lavorando all'integrazione di telecamere negli AirPods per migliorare la sicurezza personale.

Secondo Gorman, l'intelligenza visiva, ovvero la capacità di riconoscere il mondo circostante e di fornire informazioni utili o assistenza, è molto importante per Apple, che prevede di integrare le fotocamere anche nell'Apple Watch e nell'Apple Watch Ultra. Come nel caso degli AirPods, "aiuterà il dispositivo a vedere il mondo esterno e a utilizzare l'intelligenza artificiale per fornire informazioni rilevanti". Si vocifera anche che Apple stia valutando l'idea di aggiungere fotocamere ai suoi smartwatch per potenziare le sue capacità di intelligenza visiva.

Come funzioneranno gli AirPods con l'Intelligenza Visuale?

L'intelligenza visiva, introdotta in iOS 18 per iPhone 16, ti consente di puntare la fotocamera su qualcosa e di saperne di più: il tipo di pianta, la razza del cane (come mostrato nella foto all'inizio di questo articolo), gli orari di apertura del bar che hai appena trovato, ecc. Questa tecnologia è nota anche come "intelligenza visiva" ed è una delle funzionalità più importanti dell'aggiornamento.

Intelligenza visiva su un iPhone 16

L'intelligenza visiva può anche tradurre testi e un giorno potrebbe essere in grado di aiutare le persone con difficoltà di memoria per nomi e volti. Questa tecnologia potrebbe semplificare la vita quotidiana di molte persone.

Ma il grande problema dell'intelligenza visiva è che per utilizzarla bisogna tirare fuori il telefono. Ci sono circostanze in cui non lo si desidera. Ricordo quando Apple rese disponibile Mappe sull'Apple Watch: rendere possibile l'uso di Mappe senza mostrare a tutti nel quartiere "Non sono di queste parti e sono completamente perso. Ho anche un telefono costoso" era un'importante funzionalità di sicurezza personale.

Potrebbe anche essere così. Se Apple rendesse possibile invocare l'Intelligenza Visuale con un cenno del capo e un tocco sugli steli degli AirPods, potresti ottenere informazioni importanti, come la traduzione di un segnale stradale in un altro Paese, senza dover agitare il telefono.

Siamo ancora lontani dall'avere effettivamente queste funzionalità: non aspettatevele negli AirPods Pro 3, che arriveranno probabilmente più avanti nel 2025. Ma sono entusiasta di questa prospettiva: immaginate Apple Intelligence, ma migliore.

I commenti sono chiusi.