Dr Commodore
LIVE

Apple si prepara a rivoluzionare il mondo dei dispositivi indossabili con una particolare AI

Nel corso degli ultimi mesi, sono emerse numerose voci riguardo ai progetti futuri di Apple nel campo dell’intelligenza artificiale applicata ai dispositivi indossabili. Sebbene ancora lontano dalla realizzazione, sembra che l’azienda stia preparando il lancio di occhiali intelligenti, destinati a competere direttamente con le Ray-Ban di Meta. Secondo le indiscrezioni, questi dispositivi potrebbero arrivare sul mercato nel 2027, accompagnati da AirPods equipaggiati con telecamere, capaci di offrire una gamma di funzioni AI avanzate.

Sebbene i dettagli siano ancora incerti, Apple ha recentemente rivelato alcuni spunti importanti su come intende integrare l’intelligenza artificiale nei suoi dispositivi. Nel 2023, il team di ricerca Apple Machine Learning ha lanciato MLX, un framework open-source creato specificamente per i chip Apple Silicon. Questo strumento permette di addestrare ed eseguire modelli di intelligenza artificiale direttamente sui dispositivi Apple, mantenendo al contempo la familiarità con i framework tradizionali più utilizzati nel settore.

apple wearables

FastVLM: un nuovo modello visivo per l’AI di Apple

Tra le novità più interessanti, Apple ha introdotto FastVLM, un modello visivo che utilizza MLX per un’elaborazione delle immagini ad alta risoluzione incredibilmente veloce e con un consumo di risorse decisamente inferiore rispetto ai modelli tradizionali. FastVLM è progettato per ridurre al minimo il tempo di risposta e il carico computazionale, ottimizzando il compromesso tra latenza, dimensioni del modello e accuratezza.

Il cuore di FastVLM è un encoder chiamato FastViTHD, sviluppato specificamente per gestire in modo efficiente immagini ad alta risoluzione. Questo componente risulta fino a 3,2 volte più veloce e 3,6 volte più compatto rispetto ad altri modelli simili. Questo è un vantaggio fondamentale per i dispositivi che devono elaborare i dati localmente, senza dover fare affidamento sulla connessione al cloud. FastVLM, infatti, consente di eseguire comandi e risposte in tempo reale direttamente sul dispositivo, aumentando significativamente l’efficienza. Un’altra caratteristica interessante di FastVLM è la sua capacità di ridurre il numero di “token” necessari per l’elaborazione.

Questo migliora ulteriormente la velocità di risposta durante la fase di inferenza, cioè il momento in cui il modello interpreta i dati e restituisce una risposta. Apple afferma che il suo modello è in grado di generare il primo “token” della risposta ben 85 volte più velocemente rispetto ai modelli concorrenti, garantendo un’esperienza utente molto più rapida e fluida. FastVLM è già disponibile su GitHub per gli sviluppatori, mentre il report tecnico completo è stato pubblicato su arXiv. Sebbene il contenuto del report non sia di facile comprensione per chi non è esperto, rappresenta una risorsa fondamentale per chi vuole approfondire gli aspetti più tecnici dei progetti AI di Apple.

apple glasses ai

Leggi anche: Apple prepara iOS 19 e promette la più grande rivoluzione (estetica) da iOS 7

Articoli correlati

Andrea Moffa

Andrea Moffa

Eroe numero 50 di Overwatch 2. Appassionato di notizie videoludiche. Esploro e condivido le avventure e le ultime info di questo mondo in continua espansione.

Condividi