Nel corso degli anni, il panorama dell’Intelligenza Artificiale (IA) ha attraversato una trasformazione drammatica. Questa continua evoluzione è stata chiaramente evidente durante la recente conferenza Ai4, tenutasi dall’7 al 9 agosto 2023 a Las Vegas, NV, dove l’attenzione principale è stata rivolta all’IA generativa.
L’anno precedente, la conferenza Ai4 aveva celebrato le tecniche tradizionali che avevano gettato le basi per le attuali innovazioni nell’IA. Le sessioni e le discussioni erano prevalentemente incentrate su metodi consolidati come il deep learning, che aveva guidato i progressi nel riconoscimento vocale e delle immagini. L’apprendimento per rinforzo aveva svolto un ruolo cruciale, addestrando agenti a prendere decisioni attraverso un sistema di ricompense per azioni corrette. Inoltre, approcci più specifici come l’apprendimento federato avevano ottenuto attenzione, evidenziando l’importanza della privacy e dell’apprendimento decentralizzato.
Un anno dopo, la scena si era radicalmente trasformata. Non importava quale sessione della conferenza avessi frequentato, l’IA generativa si era dimostrata protagonista indiscussa. Questo includeva la generazione di immagini, testi, musica, video e altro ancora. Con il suo potenziale di creare contenuti su larga scala, precedentemente ritenuti impossibili, l’importanza dell’IA generativa nella conferenza Ai4 del 2023 era inevitabile.
Tuttavia, ciò che ha sorpreso molti non è stata soltanto la presenza pervasiva dell’IA generativa, ma anche il modo in cui ha oscurato le metodologie tradizionali. Questo non implica che le tecniche fondamentali siano diventate obsolete; queste rimangono parte integrante di molte applicazioni dell’IA. Tuttavia, il cambiamento di focus sottolinea la tendenza dell’industria a guardare avanti, alla ricerca costante della prossima grande innovazione.
Nonostante le applicazioni promettenti dell’IA generativa siano state evidenziate, non sono mancate le preoccupazioni riguardo alle possibili implicazioni negative di questa tecnologia.
Un pannello ha esaminato in particolare le questioni legate alla proprietà intellettuale. Il potenziale dei modelli generativi di replicare, riformulare o addirittura “creare” nuovi contenuti solleva questioni significative riguardo al plagio e ai diritti di proprietà intellettuale. In un mondo in cui le macchine possono generare contenuti su richiesta, come stabilire l’originalità e l’attribuzione?
Due domande cruciali sono emerse:
- Se l’arte è generata dall’Intelligenza Artificiale, può essere soggetta a protezione da copyright e, ancor più importante, dovrebbe esserlo?
- Le IA che assimilano informazioni e producono opere d’arte stanno violando il materiale protetto da copyright degli artisti?
Ad oggi, non esiste ancora una risposta definitiva a queste due domande, e la società è in attesa di ulteriori chiarimenti.
Alcune sessioni della conferenza hanno affrontato i possibili abusi dell’IA generativa, inclusi attacchi fraudolenti o la produzione di testi e voci intenzionalmente ingannevoli per il pubblico.
Ad esempio, la capacità dell’IA generativa di produrre testi simili a quelli umani e di imitare stili personali potrebbe essere sfruttata per attacchi di phishing. Un’intelligenza artificiale sofisticata potrebbe creare e-mail o messaggi su misura per individui, rendendo le truffe più persuasive che mai.
Mentre il termine “deepfake” è spesso associato a video o audio, l’IA generativa può anche creare contenuti testuali falsificati. Individui senza scrupoli potrebbero manipolare dichiarazioni, interviste o scritti, attribuendoli erroneamente a persone reali e causando potenziali danni alla reputazione. Ad esempio, come le istituzioni bancarie possono verificare l’autenticità della voce di un utente al telefono se le voci possono essere clonate e le parole generate in modo automatico?
Nonostante la maggior parte delle presentazioni provenisse da aziende consolidate, una startup ha attirato l’attenzione di tutti. Rain Neuromorphics sta sviluppando cervelli artificiali tramite l’addestramento di reti neurali analogiche end-to-end con propagazione dell’equilibrio. Con un piano ambizioso, Rain prevede di raggiungere modelli con 100 miliardi di parametri in un chip delle dimensioni di una miniatura. Fondata da ex studenti di Y Combinator e con Sam Altman tra gli investitori, Rain ha annunciato un finanziamento di successo di $25 milioni nella serie A nel febbraio 2022.
Interessante notare la scarsa presenza di discussioni sull’Intelligenza Generale Artificiale (AGI) o su altre strade per portare l’IA al prossimo livello. Sarà interessante vedere se questi temi guadagneranno più spazio nei futuri eventi Ai4 una volta che l’intensa enfasi sull’IA generativa si attenuerà.