Lo scienziato Intel che ha costruito il comunicatore di Stephen Hawking lo sta aggiornando con AI e GPT-2, open source


Peter Scott Morgan è uno scienziato e un robotista. Ha anche una malattia del motoneurone avanzato, che è simile alla SLA o alla malattia di Lou Gehrig, e sta perdendo il controllo del suo corpo. Lama Nachman, lo scienziato Intel che ha costruito il sistema di comunicazione di Stephen Hawking, lo sta aggiornando, aggiungendovi più intelligenza artificiale e aiutandolo non solo a comunicare, ma anche a controllare il suo intero mondo. Inoltre, lo sta rendendo open source e sta pianificando di renderlo disponibile e poco costoso per decine di migliaia come lui.

Il suo obiettivo?

Maggiore indipendenza, capacità e responsabilizzazione per coloro che stanno perdendo il controllo dell’unica cosa che tutti possediamo: i nostri stessi corpi.

Il fine ultimo: qualcosa come un essere umano dotato di esoscheletro abilitato all’intelligenza artificiale. Insomma, un cyborg. E insieme a ciò arrivano alcune domande profonde e fondamentali AI, vita e umani.

Incluso, come dice Morgan, il potenziale cambiamento di ciò che significa essere umani.

“Il tema che attraversa tutte le diverse ricerche che sto facendo è davvero come amplificare il potenziale umano e ridurre le disuguaglianze nella società”, mi ha detto Nachman in un recente episodio del podcast TechFirst . “L’informatica assistiva per le persone con disabilità è un pezzo di quel puzzle.”


Reclutare la prossima ondata di lavoratori essenziali della democrazia
Il famoso fisico Stephen Hawking, autore di numerosi libri tra cui A Brief History of Time , poteva controllare essenzialmente un muscolo del suo corpo, mi disse Nachman: la sua guancia. Nachman ha posizionato un sensore di prossimità vicino alla sua guancia, che penzolava dagli occhiali. Flettendo la guancia, Hawking poteva essenzialmente premere un pulsante.

Oppure, in un certo senso, fare clic su un mouse.


Questo era il componente hardware di ciò che Intel aveva costruito per Hawking. La componente software, tuttavia, era molto più difficile. Ciò richiedeva la creazione di una piattaforma software completa su Windows in modo che Hawking potesse controllare un intero sistema operativo da un solo pulsante.

“Una delle cose di cui penso che le persone a volte non si rendano conto è che Windows parte dal presupposto che le persone possano muovere il mouse”, afferma Nachman. “Se inizi a pensare davvero a quanti clic del mouse sono necessari per eseguire qualsiasi funzione, è piuttosto sorprendente … l’apertura di un file richiedeva circa quattro minuti.”

Inizialmente, il sistema funzionava come un radar vecchio stile: cercava una linea orizzontale, quindi cercava una linea verticale. L’intersezione delle due linee era il punto in cui Hawking voleva fare clic con il mouse e ogni volta che aveva bisogno di fare clic con il mouse ci vollero letteralmente minuti di interazione.

La soluzione non era mai usare un mouse.

Invece, Nachman e il suo team hanno lavorato per costruire una tecnologia predittiva che anticipasse ciò di cui Hawking aveva bisogno e lo automatizzasse.

Intel Fellow e ricercatore scienziato Lama Nachman.
Intel Fellow e ricercatore scienziato Lama Nachman. LAMA NACHMAN
“Immagina un’interfaccia costruita su un mouse che cerca di evitare il mouse … [questo] non era certo banale”, dice Nachman. “Piuttosto che pensare a qualsiasi funzione come a una serie di clic del mouse, abbiamo semplicemente ridisegnato queste funzioni come dovrebbero essere. Se vuoi aprire un file, non è necessario fare clic su 20 selezioni del mouse, devi solo iniziare a scrivere il file che desideri, giusto? “

Ciò ha coinvolto sempre più l’intelligenza artificiale per la previsione delle parole.

Hawking inizialmente non era un grande fan della predizione delle parole. In effetti, dice Nachman, “voleva prevedere il suo predittore di parole”. Ma nel 2013 la previsione delle parole basata sull’intelligenza artificiale di Nachman ha aiutato Hawking a passare dal dover inserire il 25% delle lettere richieste per scrivere una determinata parola a solo l’8%, aumentando sostanzialmente la velocità di scrittura di un fattore tre.

Va bene, ma non è abbastanza per Peter Scott Morgan.

Morgan, il robotico e scienziato che sta combattendo MND, sta perdendo il controllo del suo corpo. E mentre essere in grado di comunicare è incredibilmente importante per lui, proprio come lo era per Hawking, così è essere in grado di riguadagnare la velocità e il modo di comunicare che aveva una volta. Ed è meno sposato con il sistema che dice esattamente quello che vuole ogni volta.

“È qualcuno che è molto, molto spiritoso, giusto, che … sta cercando di essere davvero molto veloce e di tirare fuori qualcosa”, mi ha detto Nachman. “Non puoi fare il sarcasmo con un ritardo.”

È qui che inizia a entrare in gioco l’opzione cyborg. Morgan, che partecipa attivamente con Nachman e un team Intel all’aggiornamento e al progresso della tecnologia Hawking, ha proposto un’altra opzione. In sostanza, sta cercando di AI per trasformare non solo le sue capacità ma anche, in un certo senso, se stesso. Inizia con il linguaggio e la comunicazione, ma Morgan alla fine vuole costruire un esoscheletro che gli consentirà di muoversi e viaggiare proprio come era in grado una volta.

“Quindi in realtà stava proponendo, ‘Perché dovremmo pensare a me che controllo un sistema di intelligenza artificiale? Dovremmo davvero [pensare] a me e al sistema di intelligenza artificiale che evolviamo insieme come un’altra cosa “, dice Nachman.

È qui che l’intersezione tra interfaccia uomo-computer e intelligenza artificiale diventa davvero interessante, dice Nachman. Ha addestrato GPT-2, il modello linguistico che utilizza l’apprendimento profondo per produrre testo simile a quello umano, su un corpus di parole e scritti di Morgan. Ma mentre GPT-2 ha realizzato alcuni post, e-mail e articoli di blog di tipo umano, non è chiaro come usarlo in modo colloquiale.

Cosa fai: permetti al sistema di intelligenza artificiale di uscire con alcune diverse opzioni per la parola e poi lascia che Morgan selezioni quella che vuole? Quello che vuole probabilmente non sarà ottimale, ma Morgan sarà comunque tentato di usarlo, perché è veloce. E poi, poiché l’IA impara dalla ripetizione e dai dati del passato, le selezioni che fa influenzeranno le opzioni future, restringendo ulteriormente la scelta di Morgan.

“Il problema con questo è nel tempo, diventi sempre più incastrato, perché il sistema sta imparando, rafforzando il suo comportamento sulla base di quell’input non ideale, e peggiorerebbe nel tempo”, mi ha detto Nachman.

Quindi ciò che Intel sta incorporando nel sistema è la capacità di dire all’intelligenza artificiale quando le opzioni non sono eccezionali: Morgan la sceglie solo per ragioni di opportunità. In altre parole: sto usando l’opzione B, ma non credo di averla capita proprio qui. Quindi, più tardi, Morgan può tornare indietro e indicare qualcosa di più sulla falsariga di ciò che intendeva effettivamente dire, e il sistema può imparare da questo.

Mentre il lato software continua a diventare sempre più intelligente e ad assumersi la maggior parte del carico di conversazione, il team sta lavorando anche sul lato hardware. Tutto ciò che può ricevere segnali più velocemente può conservare più del sapore della vera personalità di Morgan, dandogli anche più autonomia. Muovere la guancia per fare clic con il mouse non è veloce. Né il controllo dello sguardo deve fare essenzialmente la stessa cosa.

In definitiva, l’obiettivo è portare i segnali dal nostro cervello alle nostre macchine. La maggior parte di noi lo fa tramite l’interfaccia dei nostri corpi in carne e ossa: le nostre mani e le dita, più, sempre più, le nostre corde vocali.

Ma cosa succede se esiste un metodo più veloce e diretto?

Soprattutto uno che non comporta un intervento chirurgico.

Nachman non sta perseguendo una soluzione di tipo Elon Musk Neuralink . È invasivo, richiede perforazioni nel cranio e costoso. Per tutti questi motivi, sarà una soluzione per pochissimi, almeno a breve termine e probabilmente anche a lungo termine.

Piuttosto, Nachman vuole una soluzione che migliaia o milioni di persone possano utilizzare facilmente ed economicamente.

“Quello che stiamo costruendo in questo momento, e ci stiamo avvicinando molto a rilasciarlo nell’open source, consiste essenzialmente nell’utilizzare un set molto semplice di elettrodi che puoi avere in un sistema cap, molto economico”, dice Nachman. “Questi non sono i tuoi ventimila elettrodi ad alta fedeltà, qualunque miliardo di elettrodi, ma davvero qualcosa che è nell’ordine di poche centinaia di dollari.”

In altre parole, comunicazione per le masse, non per poche. Accessibile, open source ed economico.

In definitiva, l’obiettivo è dare alle persone l’indipendenza di cui hanno privato la SLA, l’Alzheimer o l’MND.

“Se ci pensi, oggi, con tutta l’innovazione che accade, se in realtà permetti a qualcuno di interfacciarsi con il proprio PC, può controllare tutto, praticamente, giusto?” Dice Nachman. “Tutto ciò di cui hai bisogno è quell’unico controllo.”

Questo ha molto senso. Con Alexa, Google Home, Siri e altre tecnologie, le finestre intelligenti possono aprirsi anche se non puoi alzarti e aprirle. Porte e serrature intelligenti si aprono o si chiudono. Puoi regolare la temperatura, posare una tenda da sole, riprodurre musica, guardare la TV o scrivere un libro.

E questo è l’obiettivo.

“Per me, è come, okay, beh, che ne dici di quelle persone che non hanno altre opzioni, questo è davvero ciò che stiamo cercando di consentire con gran parte del lavoro che stiamo facendo”, dice Nachman. “E la tecnologia è, sai, mi piace pensare alla tecnologia come all’equalizzatore, giusto, piuttosto che a chi ha e chi non ha.”

In questo caso, i non abbienti sono quelli che la malattia ha privato dell’autonomia e dell’indipendenza: quelli con SLA e MND. È anche per coloro che per incidente possono essere diventati paraplegici o tetraplegici. Per ora, la soluzione riguarda la comunicazione e il controllo.

Un esoscheletro per tutto il corpo che consente la piena mobilità? A questo punto, rimane nel futuro.

Di ihal