Google ha dichiarato che circa il 75% del nuovo codice sviluppato internamente viene oggi generato tramite sistemi di intelligenza artificiale, principalmente attraverso i modelli Gemini e strumenti agentici integrati nell’infrastruttura di sviluppo aziendale. La percentuale rappresenta una crescita estremamente rapida rispetto ai dati comunicati negli ultimi due anni: nel 2024 l’AI contribuiva a circa il 25% del codice prodotto internamente, mentre nel 2025 il valore era già salito intorno al 50%.
L’aspetto più interessante, però, non è semplicemente il volume di codice generato automaticamente, ma il fatto che Google sostiene di aver registrato un aumento della produttività degli ingegneri nonostante — o proprio grazie a — questa trasformazione del workflow software. Il dato smentisce una delle interpretazioni più diffuse degli ultimi mesi, secondo cui l’automazione crescente della programmazione avrebbe inevitabilmente ridotto il ruolo operativo degli sviluppatori umani. Secondo Google, sta accadendo l’opposto: gli ingegneri producono più software, completano task più rapidamente e riescono a supervisionare sistemi sempre più complessi sfruttando pipeline AI-native.
Google non utilizza più l’intelligenza artificiale come semplice sistema di autocomplete del codice, ma come componente attiva del processo ingegneristico. I nuovi workflow definiti “agentic” permettono agli sviluppatori di orchestrare task autonomi eseguiti da agenti AI capaci di scrivere, correggere, trasformare, documentare e migrare porzioni di codice in maniera coordinata. In alcuni casi descritti dall’azienda, operazioni di migrazione software che richiedevano settimane sono state completate fino a sei volte più velocemente grazie all’uso di agenti AI specializzati.
Questa trasformazione modifica radicalmente la struttura del lavoro degli sviluppatori. L’ingegnere software non si occupa più principalmente della scrittura manuale riga per riga, ma assume progressivamente un ruolo di supervisione architetturale, verifica semantica, validazione della qualità e coordinamento degli agenti AI. Google specifica infatti che il codice generato automaticamente viene comunque revisionato e approvato da esseri umani prima dell’integrazione nei sistemi produttivi.
La crescita della produttività dipende soprattutto dalla riduzione del tempo impiegato nelle attività ripetitive o meccaniche. Molte operazioni che tradizionalmente occupavano una parte significativa del lavoro ingegneristico — refactoring, conversione tra framework, generazione di boilerplate, documentazione tecnica, aggiornamento di API, test preliminari o trasformazioni sintattiche — vengono oggi eseguite quasi interamente dai modelli AI. Questo consente agli sviluppatori di concentrarsi maggiormente sulla progettazione dei sistemi, sulla definizione della logica applicativa e sulla gestione dei problemi ad alta complessità.
Uno degli elementi più importanti emersi riguarda proprio l’integrazione dell’AI negli ambienti di sviluppo interni. Google ha pubblicato recentemente dettagli tecnici relativi all’evoluzione dei propri strumenti AI-based per IDE, spiegando che il miglioramento della produttività non deriva soltanto dalla qualità del modello linguistico, ma dalla combinazione tra esperienza utente, riduzione della latenza, contestualizzazione del codice e ottimizzazione delle pipeline di suggerimento. In pratica, l’efficacia dell’AI coding dipende molto più dall’integrazione sistemica nel workflow degli sviluppatori che dalla semplice capacità generativa del modello.
La crescita del codice AI-generated non significa inoltre che Google abbia eliminato la necessità di competenze ingegneristiche avanzate. Anzi, la complessità aumenta. Sistemi AI capaci di generare grandi quantità di codice introducono nuovi problemi legati a qualità, affidabilità, sicurezza e manutenzione del software. Il rischio non è tanto che l’AI scriva codice insufficiente, ma che produca enormi volumi di codice apparentemente corretto ma difficile da verificare, comprendere o mantenere nel lungo periodo. Per questo motivo, la validazione umana continua a rimanere centrale nei processi enterprise.
Le problematiche diventano ancora più rilevanti nelle grandi infrastrutture distribuite come quelle di Google, dove il software deve rispettare requisiti estremamente severi in termini di sicurezza, compatibilità, performance e resilienza operativa. In ambienti di questo tipo, il codice generato automaticamente non può essere trattato come semplice acceleratore produttivo: deve essere integrato in pipeline di verifica continue, sistemi automatici di testing e controlli architetturali multilivello.
Il dato del 75% va quindi interpretato correttamente. Non significa che tre quarti del software Google vengano progettati autonomamente dall’intelligenza artificiale senza supervisione, ma che l’AI contribuisce direttamente alla produzione della maggior parte del nuovo codice sorgente poi validato dagli ingegneri. La distinzione è fondamentale, perché evidenzia come il paradigma emergente non sia quello della sostituzione completa dello sviluppatore, ma della collaborazione continua tra esseri umani e sistemi generativi.
Questa trasformazione sta influenzando anche i processi di assunzione. Google ha iniziato a sperimentare colloqui tecnici in cui i candidati possono utilizzare assistenti AI durante alcune prove di coding, con l’obiettivo di valutare non soltanto la capacità di programmare manualmente, ma anche la competenza nell’utilizzo operativo dei modelli generativi. L’azienda considera ormai la “AI fluency” una competenza ingegneristica concreta, che include capacità di prompting, validazione del codice generato, debugging e controllo qualitativo degli output prodotti dai modelli.
