
Il futuro dell'auto sbanca Las Vegas. L’intelligenza artificiale entra nella terza fase, quella “fisica”
L'intelligenza artificiale sta avanzando a un ritmo incredibile. È partita con la IA percettiva – comprensione di immagini, parole e suoni – poi è arrivata l’IA generativa creando testi, immagini e suoni. Ora stiano entrando nell’era dell’IA fisica, l’IA che può procedere, ragionare, pianificare e agire». Se a dirlo è Jensen Huang, ceo e fondatore di NVIDIA, gli si può credere. Lì dove 6mila persone per 90 minuti hanno visto un uomo che mostrava schede video, GPU e processori di nuova generazione su un palco del CES di Las Vegas, gli investitori hanno visto invece il condottiero indiscusso di un’azienda che ha una capitalizzazione in borsa di 3,3 mila miliardi di dollari e, tra le molte cose, può annunciare di aver incluso nel suo ricco bouquet di clienti automotive anche la Toyota mettendolo insieme ad altri fiori come BMW, BYD, Ford, Geely, Great Wall Motors, JLR, Mercedes, NIO, Stellantis e Hyundai che proprio a Las Vegas ha fatto sapere di aver intensificato i programmi di collaborazione con l’azienda che detiene l’80% del mercato dei chip “AI by design”. Insomma, tutto il pantheon dell’automobile va in pellegrinaggio a Santa Clara – non la beata, ma la località della Sylicon Valley dove l’azienda di Huang ha il suo quartier generale – per sviluppare e rifornirsi dei suoi prodotti, destinati a raggiungere non solo le automobili, ma anche le scrivanie dei manager e dei progettisti nonché i macchinari di controllo che all’interno degli stabilimenti guidano l’assemblaggio di tutti i componenti, controllando alla fine il risultato e migliorando la qualità e l’affidabilità dei veicoli.
Eccola l’intelligenza artificiale fisica, che procede, ragiona, pianifica e agisce e che, in realtà, è già presente da anni nei processi decisionali, progettuali e costruttivi delle grandi case automobilistiche che da tempo stanno anche mettendo in campo imponenti programmi di formazione per il loro personale affinché digitalizzazione, cloud e intelligenza artificiale non siano alieni pronti a divorare dall’interno figure e organizzazioni. «I lavori non sono più gli stessi e avremo bisogno di lavori diversi» afferma Ilka Horstmeier, membro del consiglio di amministrazione di BMW. Mercedes già da tempo utilizza ChatGPT sulle scrivanie dei propri dipendenti e sulle linee di produzione. Lo stesso fanno ormai da anni Renault – che sta investendo 5 miliardi di euro in ogni area aziendale per l’IA e la digitalizzazione – e Volkswagen. Anche Stellantis utilizza l’IA per ottimizzare i prodotti in base ai mercati, per migliorare l’efficienza delle sue linee produttive e ne sta studiando l’applicazione persino per i processi di vendita. Peugeot la impiega anche nelle competizioni, un campo per il quale anche un gigante come Bosch ha presentato al CES alcune novità che sta sperimentando su un prototipo LMDh. In questo l’Italia può dirsi davvero all’avanguardia, con le squadre in corsa del Politecnico di Milano e dell’Università di Modena e Reggio Emilia (UNIMORE) che hanno già vinto su pista con le loro monoposto senza pilota e battuto diversi record.
L’ateneo lombardo al CES è stato presente attraverso Maserati alla quale ha fornito, nell’ambito del progetto Aida (Guida autonoma con intelligenza artificiale) e attraverso il Most (Centro nazionale per la Mobilità sostenibile), una tecnologia che ha permesso a una MC20 a guida autonoma di raggiungere 285 km/h nella nebbia senza avere nessuno al volante. Toyota, che per l’intelligenza artificiale ha messo su da anni il TRI (Toyota Research Institute) affidandone la conduzione a uno specialista di fama mondiale come Gill Pratt, sta sviluppando soluzioni non solo per i prodotti e per i servizi di mobilità, ma un sistema che governa Woven City, la città prototipo che il costruttore giapponese, dopo averla annunciata nel 2020, ha portato a termine alle pendici del monte Fuji. A informare della sua ultimazione dalla platea del CES ha provveduto Akio Toyoda in persona affermando che 360 saranno i “coloni” che la popoleranno dal prossimo ottobre e che presto si passerà a 2mila persone.
NVIDIA ha infine presentato Cosmos, una piattaforma di foundation model per i digital twin che aiuterà tutti gli altri modelli a svilupparsi prima e meglio: una sorta di personal trainer per tutti i sistemi di intelligenza artificiale, da quelli LLM (Large Language Model) a quelli più specializzati e sofisticati che investono la robotica. L’intelligenza artificiale vista al CES che riguarda l’automobile dunque non è semplicemente – si fa per dire – guida autonoma, chatbot e qualche gadget, ma qualcosa di ben più esteso, profondo e complesso che riguarda il modo di fabbricare le auto e vivere la mobilità e il rapporto con un’automobile che vive il paradosso di essere sempre meno bene fisico di proprietà e sempre più una realtà virtuale presente in qualunque mezzo o dispositivo. Le automobili definite da software infatti saranno sempre di più come i nostri telefonini: te ne compri uno nuovo o diverso da quello che utilizzi di solito, inserisci le tue credenziali e ritrovi all’istante il “tuo” dispositivo, con tutte le tue preferenze e dotato di forme di azione e interazione con ecosistemi sconfinati. E questo non vale solo per l’automobile che compriamo, ma anche per quella che prendiamo a noleggio o in car sharing. Una rivoluzione che ha implicazioni davvero profonde nel rapporto di interazione tra uomo e macchina, utilizzatore e modalità di interazione.
Illuminanti sono le altre novità presentate al CES come il Panoramic iDrive di BMW, ovvero un head-up display a realtà aumentata ampio come il parabrezza della vettura che vedremo molto presto sui modelli della casa bavarese basati sulla piattaforma Neue Klasse. Altro esempio di finestratura interattiva l’ha mostrato la Continental con il cristallo posteriore che può proiettare immagini mentre LG parla di Affectionate Intelligence. Entrambi i concetti indicano l’importanza dell’IA come agente di informazioni, ma anche di emozioni e stati d’animo che la macchina può rilevare attraverso il nostro corpo e prossimamente dalle nostre onde cerebrali consigliandoci dove andare, descrivendoci i luoghi e la loro storia e prenotando per noi i posti migliori dove mangiare e dormire, ma anche che cosa comprare descrivendo ogni singolo articolo e aiutandoci a scegliere.
È l’automobile che procede, ragiona, pianifica e agisce ed è l’automobile che, in modo reale o illusorio, ci comprende e vuole esserci amica: un umanoide a quattro ruote che diventa «una specie di Tamagotchi» come l’ha definita Luca De Meo, che vede nell’automobile intelligente il potere di creare una relazione diversa con l’utilizzatore «perché – spiega il ceo di Renault – è la prima volta nella storia dell’umanità che le macchine capiscono esattamente quello che la gente vuole».