Recentemente, numerose aziende, tra cui Apple, Amazon e Samsung, hanno vietato ai loro dipendenti di utilizzare strumenti di intelligenza artificiale (IA) per motivi di privacy e sicurezza. Tuttavia, nonostante questi divieti, l’adozione dell’IA da parte degli sviluppatori è in forte crescita, mettendo in luce l’importanza di queste tecnologie per il futuro della programmazione e dello sviluppo software.
Uno studio condotto da Checkmarx ha rivelato che il 99% dei team di sviluppo utilizza strumenti di codifica basati sull’IA, anche se il 15% delle aziende intervistate ha vietato esplicitamente il loro uso. Questo contrasto evidenzia un problema significativo: molte aziende temono che l’uso dell’IA possa mettere a rischio la sicurezza del codice proprietario e la privacy dei dati. Di conseguenza, numerose organizzazioni stanno cercando di sviluppare modelli open source personalizzati per l’uso interno, al fine di garantire un ambiente sicuro e affidabile per i loro dipendenti.
Santiago Valdarrama, esperto del settore, ha dichiarato: “Le aziende che non permettono ai propri sviluppatori di utilizzare l’intelligenza artificiale non ce la faranno”. Questa affermazione sottolinea l’importanza crescente dell’IA nella programmazione. Anche Sergey Brin, co-fondatore di Google, ha sottolineato che scrivere codice da zero è diventato molto più complesso rispetto a chiedere all’IA di farlo. Brin ha infatti ammesso di aver usato strumenti di IA per scrivere codice per divertimento, dimostrando come queste tecnologie possano essere utili persino per sviluppatori esperti.
Nonostante le resistenze, strumenti come GitHub Copilot, Cursor e Zed hanno dimostrato di poter aumentare notevolmente la produttività dei team di sviluppo. Tuttavia, molte aziende rimangono riluttanti a permettere ai loro sviluppatori di utilizzare questi strumenti, soprattutto a causa di preoccupazioni legate alla sicurezza, alle potenziali allucinazioni e alla divulgazione di informazioni riservate.
Il problema più grande per le aziende che non adottano strumenti di intelligenza artificiale è legato alla sicurezza. Le preoccupazioni riguardano risposte imprecise, l’esposizione di informazioni personali e commerciali e potenziali perdite finanziarie. Tuttavia, nonostante i divieti, molti sviluppatori continuano a utilizzare questi strumenti, rendendo i divieti inefficaci nella pratica.