Un nuovo progetto chiamato FauxPilot è stato sviluppato da Brendan Dolan-Gavitt, un assistente docente presso il dipartimento di informatica e ingegneria presso la NYU Tandon School of Engineering negli Stati Uniti. FauxPilot è un modello generativo che consente di produrre codice con diversi linguaggi di programmazione senza la necessità di trasferire i dati su server remoti.
FauxPilot si basa su Docker e richiede almeno una GPU NVidia potente. Il progetto ha l’obiettivo principale di fornire un modo per eseguire la generazione di codice basato sull’intelligenza artificiale on-premise, ovvero in locale, all’interno della propria infrastruttura.
Mentre Microsoft e GitHub hanno presentato Copilot X, una versione migliorata della tecnologia che consente di generare codice con qualsiasi linguaggio di programmazione partendo da una descrizione testuale, FauxPilot rappresenta un’alternativa che sposta l’elaborazione in locale, senza trasmettere alcun dato su server remoti.
Mentre Copilot utilizza il modello generativo di OpenAI, FauxPilot si appoggia a CodeGen di Salesforce. Strumenti come Copilot sono utili per ridurre il carico di lavoro e risparmiare tempo nello sviluppo di routine che gestiscono operazioni ricorrenti o attività comuni. Tuttavia, il codice generato deve essere comunque verificato e controllato attentamente, poiché non esistono modi infallibili per accertare che il codice generato sia privo di bug.
Secondo l’ideatore di FauxPilot, la sfida consiste nell’addestrare modelli di codice in modo che producano un codice più sicuro. L’adozione di strumenti basati sull’intelligenza artificiale per la generazione di codice sta crescendo rapidamente. GitHub Copilot, ad esempio, è già utilizzato da milioni di sviluppatori in tutto il mondo e rappresenta uno strumento potente per ridurre i tempi di sviluppo del codice.
Tuttavia, l’uso di strumenti basati sull’IA per la generazione di codice solleva anche preoccupazioni sulla sicurezza. È noto che l’IA può essere influenzata dai dati di addestramento e, se i dati contengono pregiudizi o altri problemi, ciò può influire sulla qualità del codice generato.
Inoltre, il codice generato può contenere vulnerabilità di sicurezza e bug, che devono essere identificati e risolti prima dell’implementazione del software. Pertanto, è importante che gli sviluppatori verifichino attentamente il codice generato e adottino misure per migliorare la sicurezza del software.
In definitiva, l’uso di strumenti basati sull’IA per la generazione di codice può essere un’opzione promettente per ridurre i tempi di sviluppo e migliorare l’efficienza degli sviluppatori. Tuttavia, è importante valutare attentamente i rischi associati all’uso di questi strumenti e adottare le misure appropriate per garantire la sicurezza del software generato.