Un nuovo studio della New York University ha rivelato che i modelli di intelligenza artificiale possono apprendere da conversazioni di bambini, aprendo nuove prospettive sull’acquisizione del linguaggio. Anche se l’apprendimento umano è stato a lungo considerato unico, questo studio dimostra che l’IA può imparare anche da piccoli set di dati.
I ricercatori hanno addestrato una rete neurale, denominata CVCL, utilizzando video e audio registrati da bambini di 6 a 25 mesi. Nonostante il limitato numero di dati (solo 61 ore), il modello ha dimostrato di apprendere associazioni di parole efficacemente e di generalizzare a nuovi dati visivi.
Tuttavia, il CVCL attuale non raggiunge ancora il livello di vocabolario di un bambino di 2 anni, a causa di limitazioni come l’assenza di esperienze sensoriali complete e di cognizione sociale.
Allo stesso tempo, l’osservazione dei bambini sta ispirando nuovi sviluppi nell’IA. Google DeepMind ha sviluppato PLATO, un modello che apprende dalla fisica osservando oggetti in evoluzione. PLATO ha dimostrato di superare altri modelli nell’apprendimento intuitivo della fisica, indicando il potenziale della ricerca sullo sviluppo infantile per guidare lo sviluppo dell’IA.
In un’altra innovazione, i ricercatori dell’Università della California, a Los Angeles, hanno creato Chatterbaby, un’applicazione di intelligenza artificiale in grado di interpretare i pianti dei bambini. Utilizzando 2.000 campioni audio, l’app è in grado di distinguere tra pianti causati da fame, dolore o irritazione con una precisione del 90%.