Google presenta Gemma 4: l'IA locale che rivoluziona Android e lo sviluppo

Wait 5 sec.

Google ha presentato Gemma 4, un nuovo modello di intelligenza artificiale pensato per chi sviluppa su Android e per le future funzioni IA direttamente sui dispositivi mobili. Non si tratta solo di un altro modello linguistico: l’obiettivo è portare vere capacità "agentiche", cioè la possibilità per l’IA di ragionare, usare strumenti e gestire compiti complessi in autonomia.Alla base c’è una scelta precisa: spostare sempre di più l’IA in locale, sia sul computer dello sviluppatore sia sullo smartphone, riducendo la dipendenza dal cloud. Questo approccio punta a migliorare privacy, costi e reattività delle app, con un occhio alle prestazioni e ai consumi. Gemma 4 nasce con un obiettivo molto concreto: diventare un assistente alla programmazione integrato in Android Studio, capace di supportare l’intero ciclo di sviluppo delle app. Il modello è stato addestrato specificamente sul mondo Android, così da comprendere meglio librerie, pattern e flussi tipici della piattaforma.La caratteristica più rilevante è l’esecuzione completamente locale: Gemma 4 gira direttamente sul PC dello sviluppatore, senza bisogno di connessione internet né di chiavi API verso servizi cloud. Questo riduce i rischi legati alla condivisione di codice sensibile, elimina i costi legati alle quote di utilizzo dei modelli remoti e permette di lavorare anche offline.Le capacità "agentiche" di Gemma 4 in Android Studio coprono diverse attività pratiche:Generazione di nuove funzionalità, ad esempio creando interfacce utente in Kotlin seguendo buone pratiche consolidateRefactoring massivo del codice, per riorganizzare progetti esistenti in modo più pulito e manutenibileCorrezione iterativa di errori, aiutando a risolvere errori di compilazione e bug con passaggi successiviPer funzionare con Android Studio, Gemma 4 richiede l’uso di un provider LLM locale come LM Studio o Ollama e arriva in tre varianti, pensate per hardware diversi:Gemma E2B – richiede 8 GB di RAM e 2 GB di spazio di archiviazioneGemma E4B – richiede 12 GB di RAM e 4 GB di spazio di archiviazioneGemma 26B MoE – richiede 24 GB di RAM e 17 GB di spazio di archiviazioneTutte le varianti vengono distribuite con licenza Apache, un dettaglio che rende l’adozione più semplice anche in contesti aziendali e in progetti commerciali, pur lasciando agli sviluppatori la responsabilità di gestire correttamente dati e modelli. Gemma 4 non è solo uno strumento per chi sviluppa su desktop: rappresenta anche la base tecnica di Gemini Nano 4, la prossima generazione di modelli on-device per i flagship Android. L’arrivo sui top di gamma è previsto entro la fine del 2026, con l’obiettivo di portare sul telefono funzioni IA più autonome e reattive.Google ha già reso disponibile una anteprima di questi modelli tramite il programma AICore Developer Preview, riservato ai dispositivi che supportano l’API Prompt. Chi partecipa al programma può testare due varianti:Gemini Nano 4 Fast – corrisponde a Gemma E2B, pensato per massima velocità e bassa latenzaGemini Nano 4 Full – corrisponde a Gemma E4B, più completo per compiti complessi e ragionamento avanzatoRispetto alle generazioni precedenti (al momento è stabile solo Gemini 3 Nano), Google parla di un salto netto: fino a 4 volte in più di velocità e una riduzione dei consumi energetici di circa 60%. In pratica, l’IA in locale dovrebbe diventare più rapida e meno impatto sulla batteria, condizione essenziale per funzioni sempre attive come assistenti contestuali, riassunti in tempo reale o analisi dei contenuti sul dispositivo. Sul piano delle capacità, Gemma 4 punta a coprire casi d'uso molto diversi, non solo legati al codice. Il modello supporta oltre 140 lingue, con l'obiettivo di offrire esperienze multilingue e localizzate più curate, sia nelle app per sviluppatori sia nelle funzioni che arriveranno sui dispositivi consumer.Gemma 4 introduce anche funzioni multimodali, cioè la possibilità di comprendere ed elaborare testo, immagini e audio. Questo apre la strada a strumenti che possono, ad esempio, leggere un documento scansionato, interpretare un grafico o combinare input vocali e visivi in un'unica interazione.Google segnala miglioramenti specifici su alcuni aspetti chiave:Ragionamento logico più solido, utile per analisi e moderazione dei testiMaggiore precisione nelle competenze matematiche, importante per calcoli e applicazioni tecnicheMigliore comprensione del tempo, per gestire calendari, promemoria e scadenzeCapacità rafforzate di interpretazione delle immagini, con un riconoscimento dei caratteri più accurato per leggere grafici, testi scritti a mano ed estrarre dati visiviDurante il periodo di anteprima, Google prevede di arricchire ulteriormente il modello con funzioni come la chiamata degli strumenti, l'output strutturato, i prompt di sistema e una modalità di riflessione integrata nell'API Prompt. L'obiettivo dichiarato è facilitare l'uso completo delle nuove capacità "agentiche" di Gemma 4, lasciando agli sviluppatori margine per costruire flussi più controllabili e prevedibili.L'articolo Google presenta Gemma 4: l'IA locale che rivoluziona Android e lo sviluppo sembra essere il primo su Smartworld.