DeepScribe AI può aiutare a tradurre antichi tablet
I ricercatori dell’Oriental Institute dell’Università di Chicago e del Dipartimento di Informatica hanno collaborato alla progettazione di un’intelligenza artificiale che può aiutare a decodificare tablet di antiche civiltà. Secondo Phys.org , l’IA si chiama DeepScribe ed è stata addestrata su oltre 6.000 immagini annotate estratte dall’archivio di fortificazione di Persepoli, quando sarà completo il modello di intelligenza artificiale sarà in grado di interpretare le tavolette non analizzate, rendendo più semplice lo studio di documenti antichi.
Gli esperti che studiano documenti antichi, come i ricercatori che studiano i documenti creati durante l’Impero achemenide in Persia, devono tradurre a mano antichi documenti, un lungo processo che è soggetto a errori. I ricercatori hanno utilizzato i computer per aiutare a interpretare documenti antichi dagli anni ’90, ma i programmi informatici utilizzati erano di aiuto limitato. I complessi caratteri cuneiformi, così come la forma tridimensionale dei tablet, mettono un limite a quanto possano essere utili i programmi per computer.
Gli algoritmi di visione artificiale e le architetture di apprendimento profondo hanno portato nuove possibilità in questo campo. Sanjay Krishnan, del Dipartimento di Informatica dell’OI, ha collaborato con il professore associato di Assiriologia Susanne Paulus per lanciare il programma DeepScribe. I ricercatori hanno supervisionato una piattaforma di gestione del database chiamata OCHER, che ha organizzato i dati degli scavi archeologici. L’obiettivo è quello di creare uno strumento di intelligenza artificiale che sia esteso e flessibile, in grado di interpretare gli script provenienti da regioni geografiche e periodi di tempo diversi.
Come riportato da Phys.org , Krishnan ha spiegato che le sfide del riconoscimento della sceneggiatura, che i ricercatori archeologici devono affrontare, sono essenzialmente le stesse sfide affrontate dai ricercatori di visione artificiale:
“Dal computer di punto di vista visivo, è davvero interessante, perché queste sono le stesse sfide che abbiamo di fronte. La visione computerizzata negli ultimi cinque anni è migliorata in modo così significativo; dieci anni fa, questo sarebbe stato ondulato a mano, non saremmo arrivati così lontano. È un buon problema di apprendimento automatico , perché la precisione è oggettiva qui, abbiamo un set di formazione etichettato e capiamo abbastanza bene la sceneggiatura e questo ci aiuta. Non è un problema completamente sconosciuto. “
L’addestramento messo in questione è il risultato del prelievo delle tavolette e delle traduzioni, provenienti da circa 80 anni di ricerche archeologiche condotte presso OI e U Chicago e la realizzazione di immagini annotate ad alta risoluzione. Attualmente, i dati di addestramento hanno una dimensione di circa 60 terabyte. I ricercatori sono stati in grado di utilizzare il set di dati e creare un dizionario di oltre 100.000 segni identificati individualmente da cui il modello potrebbe imparare. Quando il modello addestrato è stato testato su un set di immagini invisibile, il modello ha raggiunto una precisione dell’80% circa.
Mentre il team di ricercatori sta tentando di aumentare l’accuratezza del modello, anche un’accuratezza dell’80% può aiutare nel processo di trascrizione. Secondo Paulus, il modello potrebbe essere utilizzato per identificare o tradurre parti altamente ripetitive dei documenti, consentendo agli esperti di dedicare il loro tempo a interpretare le parti più difficili del documento. Anche se il modello non è in grado di dire con certezza a cosa si traduca un simbolo, può dare ai ricercatori probabilità, che già li anticipano.
Il team mira inoltre a rendere DeepScribe uno strumento che altri archeologi possono utilizzare nei loro progetti. Ad esempio, il modello potrebbe essere riqualificato su altri linguaggi cuneiformi oppure il modello potrebbe fare stime informate sul testo su compresse danneggiate o incomplete. Un modello sufficientemente robusto potrebbe potenzialmente stimare anche l’età e l’origine delle compresse o di altri manufatti, cosa tipicamente fatta con i test chimici.
Il progetto DeepScribe è finanziato dal Center for the Development of Advanced Computing (CDAC). La visione artificiale è stata utilizzata anche in altri progetti finanziati dal CDAC, come un progetto inteso a riconoscere lo stile nelle opere d’arte e un progetto progettato per quantificare la biodiversità nei bivalvi marini. Il team di ricercatori spera anche che la loro collaborazione porti a future collaborazioni tra il Dipartimento di Informatica e OI dell’Università di Chicago.