Il boom dell’IA generativa ha aperto molte nuove opportunità per le persone. Nel corso dell’ultimo anno, il numero di ruoli nell’IA generativa è quasi triplicato. Per gli sviluppatori, ciò ha creato un livello completamente nuovo di astrazione e professione, portando a un cambiamento dimensionale completo. Quello che spesso viene definito come “ingegnere di prompt” è diventato molto più di un semplice suggeritore per ChatGPT o software simili.

In realtà, sta diventando una professione a tempo pieno. In un recente articolo di tendenza, si sostiene che invece di chiamare i nuovi sviluppatori “ingegneri di prompt”, dovremmo chiamarli “ingegneri AI”. Tuttavia, questo non deve essere confuso con gli ingegneri di machine learning, che lavorano su compiti impegnativi per creare modelli da zero. È probabile che vedremo un aumento degli ingegneri AI rispetto agli ingegneri ML o LLM.

Anche Andrej Karpathy esprime opinioni simili sull’argomento. Ha affermato che il termine “ingegnere di prompt” potrebbe essere fuorviante e non trasmettere l’intera portata del ruolo, richiedendo molto più del semplice fornire suggerimenti.

Il ruolo degli ingegneri di intelligenza artificiale dovrebbe evolversi nel tempo, con aspetti positivi e negativi. Molti esperti del settore sostengono che, man mano che i modelli di linguaggio generativo migliorano, non sarebbe nemmeno necessario svolgere le attività attuali dopo la generazione del codice da parte di questi strumenti. Le limitazioni attuali sono solo temporanee.

D’altra parte, con l’evoluzione del campo, ci sarà anche la necessità di una maggiore competenza ed esperienza. Questo vale per qualsiasi campo. Ci saranno ingegneri di intelligenza artificiale e poi ci saranno ingegneri di prompt full stack. Proprio come esistono sotto-discipline come ingegneri devops, analitici o dei dati, ci saranno ruoli che si occuperanno di diversi aspetti delle attività all’interno dell’IA.

In passato, il machine learning tradizionale implicava la ricerca di dati, la creazione di modelli e quindi il lancio del prodotto. Ora, con gli ingegneri di intelligenza artificiale che entrano in gioco dopo la creazione del prodotto, il percorso è invertito. Dopo aver ottenuto un’API come ChatGPT, creano un prodotto come Jasper o qualsiasi altro strumento basato su GPT. Successivamente, si passa alla messa a punto dei dati e al ridimensionamento del modello. Questi ultimi due passaggi richiedono molte più competenze tecniche rispetto alla semplice progettazione rapida. Pertanto, stiamo assistendo all’emergere degli ingegneri AI.

Inoltre, con la disponibilità di API per la creazione di strumenti, gli ingegneri di intelligenza artificiale potrebbero spostarsi verso ruoli più orientati all’applicazione o verso competenze più incentrate sulla ricerca, tornando alle conoscenze di base. Ciò potrebbe portare a un passaggio da MLops a LLMops, se così possiamo chiamarlo.

Dato il tipo di lavoro, gli ingegneri di intelligenza artificiale avrebbero bisogno di un flusso di lavoro sistematico per l’esperimentazione e l’osservabilità, in particolare per quanto riguarda la creazione rapida e lo sviluppo del sistema. Sia le sfide legate alle allucinazioni che alle lacune nel ragionamento sono già comuni nei modelli di linguaggio generativo, portando a un consenso generale sul fatto che questi agenti siano poco affidabili.

Sia i modelli tradizionali che i sistemi di linguaggio generativo richiedono ottimizzazioni per ottenere prestazioni ottimali. I modelli tradizionali possono essere migliorati attraverso l’addestramento e la selezione degli iperparametri, mentre i sistemi di linguaggio generativo possono essere perfezionati modificando il prompt e concatenando gli LLM. Ora, questa non è più una responsabilità esclusiva dei ricercatori di LLM, ma anche degli ingegneri di prompt.

In passato, lo sviluppo software si basava sulla codifica manuale delle istruzioni nei linguaggi di programmazione. Il machine learning e le reti neurali hanno permesso ai sistemi di apprendere modelli e fare previsioni basate sui dati di addestramento. Questo è stato considerato il Software 2.0, in cui i modelli venivano addestrati per eseguire compiti specifici.

Microsoft ha dichiarato che tutti sono sviluppatori. Karpathy ha affermato che il linguaggio di programmazione più diffuso è l’inglese. Il Software 1.0 era la codifica classica, che ha lasciato spazio all’apprendimento automatico e alle reti neurali, il Software 2.0. La prossima transizione per gli sviluppatori basati su prompt dovrebbe essere il Software 3.0. Tuttavia, Karpathy ha sottolineato che siamo ancora nel secondo livello di astrazione poiché “stiamo ancora proponendo codice progettato dall’uomo, solo in inglese”, che è ancora un artefatto del Software 2.0, non del Software 3.0.

Di Fantasy