Google I/O 2026: programma e novità svelate

google I/O
  • Google I/O 2026 si svolgerà il 19 e 20 maggio con focus su intelligenza artificiale, Android 17 e sviluppo multi-piattaforma. L'evento prevede keynote istituzionale e dedicato agli sviluppatori, seguiti da sessioni tematiche verticali approfondite.
  • Le sessioni IA copriranno lo stack completo: dai modelli multimodali alla robotica, vibe-coding e i modelli aperti Gemma per costruire applicazioni AI scalabili su cloud, desktop e dispositivi mobili.
  • Android 17 presenterà miglioramenti nelle performance, nuove funzionalità per media e fotocamera, e lo sviluppo adattivo "Adaptive Everywhere" per ecosistemi eterogenei tra telefoni, auto, TV e visori XR con Jetpack Compose.

Manca poco più di un mese a Google I/O 2026, la conferenza annuale dedicata agli sviluppatori che si terrà il 19 e 20 maggio. L’azienda di Mountain View ha pubblicato l’elenco iniziale delle sessioni previste, offrendo una prima panoramica sui temi centrali dell’evento. Come da tradizione, il programma completo verrà reso disponibile solo dopo il keynote principale, ma già dalle anticipazioni emerge un forte accento su intelligenza artificiale, sviluppo multi-piattaforma e nuove funzionalità per Android 17.

L’evento si aprirà martedì mattina con il keynote istituzionale, che occuperà la fascia oraria dalle 10:00 alle 11:45 (ora del Pacifico). Nel pomeriggio seguirà il keynote dedicato agli sviluppatori, dalle 13:30 alle 14:45. Conclusi i momenti centrali, prenderanno il via le varie sessioni tematiche, molte delle quali si protrarranno fino a mercoledì. L’approccio scelto quest’anno punta a esplorare le novità attraverso approfondimenti verticali, pensati per chi sviluppa applicazioni o lavora con le tecnologie Google.

Le sessioni dedicate all’intelligenza artificiale

Tra le novità più attese spiccano le sessioni legate all’intelligenza artificiale. Google presenterà l’intero stack AI, dai modelli multimodali fino alle applicazioni nella robotica e nella generazione di contenuti. Gli sviluppatori potranno approfondire l’uso di strumenti per il cosiddetto vibe-coding, una modalità emergente di programmazione assistita, e scoprire come ottimizzare e distribuire modelli open-source attraverso l’infrastruttura del gruppo.

Una sessione specifica sarà dedicata alla famiglia di modelli aperti Gemma, che offre strumenti per costruire applicazioni AI scalabili. Verranno mostrati i nuovi membri della famiglia e presentate best practice per il deployment su cloud, desktop e dispositivi mobili. L’obiettivo dichiarato è rendere accessibile l’intero ciclo, dalla sperimentazione alla distribuzione finale.

Android 17 e lo sviluppo adattivo

Sul fronte Android, le sessioni si concentreranno sull’edizione 17 del sistema operativo, con particolare attenzione ai miglioramenti nelle performance e alle nuove funzionalità per app dedicate a media, fotocamera e schermi di grandi dimensioni. Verrà dato spazio anche all’automazione tramite agenti intelligenti, pensata per semplificare le operazioni quotidiane degli utenti.

Uno degli interventi centrali riguarderà lo sviluppo adattivo nell’ecosistema Android, ormai esteso a telefoni, automobili, televisori e ambienti immersivi. Secondo quanto anticipato, l’ecosistema si è evoluto verso una realtà definita Adaptive Everywhere, in cui gli utenti si spostano fluidamente tra dispositivi diversi. Jetpack Compose sarà presentato come il motore principale per costruire interfacce moderne compatibili con pieghevoli, desktop, auto, TV e visori XR.

Web, Chrome e Firebase in evoluzione

Non mancheranno aggiornamenti relativi a Chrome e al web development. Le sessioni esploreranno le nuove funzionalità per rendere il browser più capace, affidabile e intelligente, con focus su animazioni attivate dallo scroll, transizioni di visualizzazione e componenti UI native in CSS e HTML. L’intento è permettere agli sviluppatori di creare esperienze visive avanzate con meno codice.

Firebase evolverà verso una piattaforma orientata agli agenti, integrando strumenti come AI Studio e Antigravity per velocizzare la creazione di applicazioni full-stack. Verrà mostrato come passare dalla prototipazione alla produzione in modo sicuro, sfruttando l’infrastruttura Google Cloud. Anche Flutter avrà una sessione dedicata, con novità sul framework e su GenUI, tecnologia per generare interfacce adattive tramite intelligenza artificiale.

Google aggiornerà il programma nelle settimane successive, aggiungendo ulteriori sessioni man mano che l’evento si avvicina. Le informazioni complete saranno disponibili solo dopo il keynote di apertura del 19 maggio.

Fonte