skin

Ige 2025, Lalli: 'Verso la Physical AI e lo Spatial shift'

03 aprile 2025 - 11:39

Per Fabio Lalli (Iconico), membro del Comitato scientifico Ige, il futuro della tecnologia sarà più intelligente, più integrato e spaziale.

Scritto da Fabio Lalli
© Fabio Lalli - Pagina Facebook

© Fabio Lalli - Pagina Facebook

OpenAI, dopo tutti i rilasci e le evoluzioni che sta facendo fare alle sue note piattaforme, con una valutazione di 157 miliardi di dollari sta ufficialmente entrando nel mondo dell’Extended reality (Xr). Le recenti registrazioni di marchi da parte della società ed i rumor di nuovi dispositivi, indicano una chiara intenzione di sviluppare dispositivi fisici: occhiali Ar, robot umanoidi, wearable intelligenti e visori Vr.

Non è un semplice esperimento, ma un passo per un ingresso in un contesto ancora sottovalutato da molti, verso il futuro dello Spatial computing. Un passo ulteriore verso la convergenza tra AI, blockchain e mixed reality, tema che nel mio libro Spatial shift ho descritto come un cambio di paradigma inevitabile.

Negli ultimi anni abbiamo assistito a cicli di entusiasmo e scetticismo intorno alla realtà aumentata e virtuale. La storia della Xr è fatta di momenti di hype seguiti da rallentamenti, dovuti a limiti tecnologici e alla difficoltà di creare esperienze realmente utili. Ma il contesto adesso è diverso: l’intelligenza artificiale sta diventando il cuore pulsante dell’evoluzione tecnologica e sta entrando in una fase in cui ha bisogno di interagire con il mondo fisico per esprimere il suo vero potenziale.

L’EVOLUZIONE DELL’AI: DAL PERCEPTION AI ALLA PHYSICAL AI - L’AI, per quanto oggi sembri un tema moderno, di adesso, arrivato nella vita di tutti i giorni dopo l'arrivo di ChatGpt, ha in effetti una storia lunga, sconosciuta a molti e ha attraversato diversi stadi evolutivi.
Come raccontato anche dal Ceo di Nvidia in un suo recente speech, nel 2012, con AlexNet, abbiamo assistito all’era della Perception AI, basata su riconoscimento vocale, deep learning e machine learning: un momento storico che ha gettato le fondamenta per lo sviluppo successivo. Questa fase ha reso possibile il riconoscimento di immagini, la comprensione del linguaggio naturale e altri avanzamenti che oggi diamo per scontati.
Per anni poi l'AI è stata nei laboratori e nei contesti di sviluppo, fuori dai radar e dai media di massa.
Successivamente, abbiamo visto emergere la Generative AI, con modelli come Gpt, Dall·e e Sora, che hanno dato il via a una rivoluzione enorme nel marketing digitale, nella creazione di contenuti e nella programmazione, per citare solo alcuni degli ambiti impattati. Questa fase ha reso possibile la generazione autonoma di testi, immagini, video e musica, aprendo le porte a una nuova interazione tra umani e macchine.

Oggi siamo immersi nell’era della Agentic AI, in cui gli assistenti AI non solo generano contenuti, ma agiscono autonomamente in contesti come il coding, il customer service e il supporto medico e molto altro. Gli agenti AI, per quanto ancora non del tutto diffusi nelle pratiche comuni aziendali, stanno diventando sempre più sofisticati, capaci di prendere decisioni, eseguire compiti complessi e adattarsi ai contesti in cui operano.
Ma il passaggio successivo, verso il quale stiamo procedendo e su cui in pochi hanno ancora messo il naso è quello della Physical AI.

OLTRE I VISORI, OLTRE L'AGENT AI - L’idea che OpenAI si stia lanciando in un mercato di hardware per la Xr potrebbe sembrare strana a chi la vede ancora come una software company focalizzata su modelli linguistici e generativi. Ma la realtà è che l’AI generativa sta raggiungendo il suo limite nelle attuali forme digitali. Modelli come Gpt, Dall·e e Sora producono testo, immagini, codice e altre piattaforme sono già in grado di creare modelli tridimensionali e rendering, ma per dominare la prossima fase del computing queste piattaforme (e questi player) devono evolversi in entità capaci di percepire, interpretare e interagire con il mondo reale.
E qui entra in gioco lo Spatial computing: un nuovo livello di interazione in cui l’AI non si limita a restituire output digitali, ma diventa parte di un ecosistema di dispositivi che raccolgono e restituiscono dati in tempo reale, comprendono il contesto e rispondono agli stimoli ambientali, creando una interazione totale, fisico-virtuale. Quella che nella mia idea è il vero metaverso.

L’AI HA BISOGNO DI DATI MIGLIORI - Nel concetto di Spatial shift che ho descritto e approfondito, la Xr non è solo un insieme di gadget futuristici, ma un sistema di acquisizione dati e restituzione di dati che fino ad oggi non stato mai affrontato in questa modalità. Ogni dispositivo Ar, Vr e wearable diventa un sensore avanzato, capace di catturare informazioni su spazio, movimento, profondità, condizioni ambientali. Si passa da un concetto di prossimità geografica in cui la posizione è una approssimazione di latitudine e longitudine, a un concetto di iper-prossimità in cui la latitudine e la longitudine si definiscono il riferimento al luogo, ma i dati spaziali relativi alla posizione di oggetti e persone tra di loro nello spazio definiscono il vero concetto spaziale definitivo per l'integrazione di informazioni nelle dinamiche di ogni momento ed istante. Questi dati permettono all’AI di superare il limite bidimensionale dello schermo e di adattarsi in modo dinamico al mondo che ci circonda.
Per un’AI veramente efficace non basterà più elaborare informazioni testuali o visive: sarà sempre più necessaria una mappa sensoriale del mondo reale, del contesto in cui la persona è immersa, un flusso continuo di dati in tempo che consenta una comprensione situazionale avanzata. È lo stesso principio che oggi è visibile entrando in una Tesla, e che ha reso possibili le auto a guida autonoma: senza un flusso costante di informazioni ambientali, l’AI resta confinata in un limbo digitale.

LE INTERFACCE AI-FIRST - Stiamo assistendo a una transizione in cui schermi e tastiere stanno gradualmente lasciando spazio a interfacce basate su AI-first.
Tempo fa ho scritto un post parlando dell'importanza di rivedere le interfacce web, passando da un approccio a navigazione a stati definiti, predefinita su ipotesi di navigazione a un passaggio a interfacce conversazionali, adattive in base all'esigenza dell'utente (dirette, attraverso richieste, indirette attraverso conoscenza progressiva) e alimentate da sistemi multimodali, capaci di comprendere voce, gesti, espressioni facciali e contesto spaziale.
Siri e Alexa sono state solo il primo passo: interazioni vocali che, per quanto evolute, restano limitate ad oggi. Il futuro sarà fatto di assistenti virtuali capaci di analizzare in tempo reale la nostra posizione, i nostri movimenti e il contesto in cui ci troviamo per fornire risposte sempre più contestualizzate e proattive.
L'idea di occhiali smart che, mentre camminiamo in una città, sono in grado di offrirti informazioni su un edificio storico, suggerire il miglior percorso per evitare il traffico o persino tradurre istantaneamente una conversazione in una lingua straniera, non è un sogno lontano. Anzi. Questa è la direzione verso cui si sta muovendo l’AI immersiva, e OpenAI, con l'interoduzione del riconoscimento in tempo reale tramite la cam dello smartphone in chatgpt, o Meta con i suoi occhiali smart, sembrano voler essere tra i protagonisti di questo cambiamento e questa direzione.

PHYSICAL AI E SPATIAL SHIFT - L’ultimo (o almeno il prossimo) stadio dell’AI è la Physical AI, in cui gli agenti artificiali non saranno più solo software, ma diventano entità fisiche capaci di interagire con l’ambiente in tempo reale. Self-driving cars, robot umanoidi, dispositivi indossabili intelligenti: tutto converge verso un ecosistema di AI integrata con lo spazio in cui viviamo.
E qui torna il concetto di Spatial Shift. Non parliamo più di un’AI confinata in un’interfaccia grafica o in un chatbot, ma di un’intelligenza distribuita nello spazio, che percepisce il mondo, apprende dai suoi sensori e interagisce in modo fluido con noi e l’ambiente. La distinzione tra digitale e fisico si assottiglia, fino a scomparire.

LA VALIDAZIONE DEFINITIVA PER LA XR - L’ingresso di OpenAI, ma anche di altri player (dei "non" morti Vision Pro di Apple, l'ingresso di Google e Samsung), in questo mercato sta accelerando le regole del gioco. Con la sua potenza computazionale, i suoi modelli generativi e la sua valutazione stellare, OpenAI sta mettendo il suo marchio - anche - sulla convergenza tra AI e Xr. E forse non è nemmeno una scommessa, ma una scelta futura obbligata per mantenere la posizione che ha oggi.
Non si tratta più di una nicchia sperimentale, ma di un’area strategica destinata a ridefinire il computing nei prossimi anni. Una cosa è certa: lo Spatial shift è in corso, e la Physical AI ne è la realizzazione definitiva.

Il futuro della tecnologia non sarà solo più intelligente, ma anche più integrato e spaziale, e sarà tra i temi protagonisti dell'Italian Gaming Expo & Conference.

Altri articoli su

Ti interessa questo argomento?
Registrati all’area riservata e segui i tuoi tag preferiti. Accederai all’elenco di tutti i nuovi articoli che usciranno legati a questi tag.

Articoli correlati