AlphaCode – un nuovo sistema di intelligenza artificiale (AI) per lo sviluppo di codice per computer sviluppato da DeepMind – può raggiungere prestazioni medie a livello umano nella risoluzione di concorsi di programmazione, riferiscono i ricercatori. Lo sviluppo di una piattaforma di codifica assistita dall’intelligenza artificiale in grado di creare programmi di codifica in risposta a una descrizione di alto livello del problema che il codice deve risolvere potrebbe avere un impatto significativo sulla produttività dei programmatori; potrebbe persino cambiare la cultura della programmazione spostando il lavoro umano sulla formulazione di problemi che l’IA deve risolvere. Fino ad oggi, agli esseri umani è stato richiesto di codificare soluzioni a nuovi problemi di programmazione. Sebbene alcuni recenti modelli di rete neurale abbiano mostrato capacità di generazione di codice impressionanti, si comportano ancora male su attività di programmazione più complesse che richiedono pensiero critico e capacità di risoluzione dei problemi, come le sfide di programmazione competitiva a cui spesso prendono parte i programmatori umani. Qui, i ricercatori di DeepMind presentano AlphaCode, un sistema di codifica assistito dall’intelligenza artificiale che può raggiungere prestazioni approssimativamente a livello umano quando si risolvono problemi dalla piattaforma Codeforces, che ospita regolarmente concorsi internazionali di codifica. Utilizzando l’apprendimento auto-supervisionato e un’architettura del trasformatore codificatore-decodificatore, AlphaCode ha risolto problemi di linguaggio naturale mai visti prima prevedendo in modo iterativo segmenti di codice basati sul segmento precedente e generando milioni di potenziali soluzioni candidate. Queste soluzioni candidate sono state quindi filtrate e raggruppate in cluster convalidando che hanno superato funzionalmente semplici casi di test, risultando in un massimo di 10 possibili soluzioni, tutte generate senza alcuna conoscenza integrata sulla struttura del codice del computer. AlphaCode si è comportato all’incirca al livello di un concorrente umano medio se valutato utilizzando i problemi di Codeforces. Ha raggiunto una posizione media complessiva all’interno del 54,3% dei partecipanti umani migliori quando limitato a 10 soluzioni presentate per problema, sebbene il 66% dei problemi risolti sia stato risolto con la prima presentazione. “In definitiva, AlphaCode si comporta molto bene su sfide di codifica mai viste prima, indipendentemente dal grado in cui ‘veramente’ comprende il compito”, scrive J. Zico Kolter in una prospettiva che evidenzia i punti di forza e di debolezza di AlphaCode. sebbene il 66% dei problemi risolti sia stato risolto con il primo invio. “In definitiva, AlphaCode si comporta molto bene su sfide di codifica mai viste prima, indipendentemente dal grado in cui ‘veramente’ comprende il compito”, scrive J. Zico Kolter in una prospettiva che evidenzia i punti di forza e di debolezza di AlphaCode. sebbene il 66% dei problemi risolti sia stato risolto con il primo invio. “In definitiva, AlphaCode si comporta molto bene su sfide di codifica mai viste prima, indipendentemente dal grado in cui ‘veramente’ comprende il compito”, scrive J. Zico Kolter in una prospettiva che evidenzia i punti di forza e di debolezza di AlphaCode.