La storia di Brad Smith è diventata un potente simbolo della convergenza tra neuroscienze e intelligenza artificiale. Affetto da Sclerosi Laterale Amiotrofica (SLA), una malattia neurodegenerativa progressiva che lo ha confinato a una sedia a rotelle per sette anni, privandolo della capacità di parlare e di muovere la testa, Smith è noto per essere stata la terza persona a ricevere un impianto cerebrale con chip Neuralink nel novembre 2024. Questo impianto di Interfaccia Cervello-Computer (BCI) gli ha già permesso di compiere un passo monumentale: controllare un computer con la sola forza del pensiero e riacquistare una sorta di voce, ricostruita dall’AI, che gli ha consentito di diventare un creatore di contenuti su YouTube.

Tuttavia, dopo aver riconquistato la possibilità di “parlare” e di interagire digitalmente, Smith ha rivelato un’altra dimensione del suo isolamento: la perdita della sua “libertà visiva”. Sebbene potesse muovere gli occhi per utilizzare il computer, era intrappolato in un mondo statico. Come ha confessato in un recente documentario, la cosa più dolorosa era l’incapacità di stabilire un contatto visivo naturale con i suoi figli, osservando la loro vita dinamica scorrere senza poter partecipare pienamente. “Ero intrappolato in un mondo statico in cui non potevo muovermi, ma la vita della mia famiglia continuava a scorrere dinamicamente,” ha affermato.

Per rompere questa barriera visiva, Smith si è rivolto a un’altra tecnologia basata sull’intelligenza artificiale: la webcam Insta360 “Link 2”. In un documentario di otto minuti intitolato “A Second Pair of Eyes”, prodotto in collaborazione con Insta360, Smith ha mostrato come questa telecamera stia trasformando il suo rapporto con l’ambiente circostante.

Smith ha descritto la webcam come dei “piccoli occhi in movimento che mi hanno permesso di vedere di nuovo ciò che mi circondava”. La chiave di volta è l’integrazione fluida di questa tecnologia basata sull’AI nel suo ecosistema di assistenza. Con il supporto tecnico di Insta360, la telecamera è stata collegata al suo MacBook e integrata con un sistema di tracciamento oculare (eye tracking) noto come EyeGaze.

Grazie a questa sinergia, Smith non ha bisogno di muovere la testa (cosa che non può fare) o le mani per operare la telecamera: può muovere, puntare e catturare foto e video con il solo sguardo. L’intelligenza artificiale integrata nella telecamera, agendo come un secondo paio di occhi dinamici, gli permette di seguire i movimenti rapidi dei suoi figli, catturare i momenti all’aperto con la famiglia e, in sostanza, riprendere il ruolo attivo di osservatore e narratore.

Il documentario offre uno sguardo commovente su questa ritrovata libertà, mostrando Smith che utilizza lo sguardo per spostare la telecamera e seguire i giochi dei bambini. L’impatto psicologico e relazionale è incalcolabile. Riacquistando la capacità di orientare attivamente il suo punto di vista, Smith ha riconquistato una parvenza di interazione visiva naturale.

“Le mie interazioni con la mia famiglia sono cambiate radicalmente”, ha raccontato con l’ausilio della sua voce ricostruita dall’AI. “Mi sento come se fossi tornato a essere il narratore della mia famiglia”.

La storia di Brad Smith trascende la meraviglia tecnica del chip cerebrale. Essa dimostra come l’Intelligenza Artificiale, operando su diversi livelli (dalla sintesi vocale alla navigazione visiva automatizzata), stia costruendo una rete di tecnologie assistive che, lavorando in concerto, possono restaurare non solo funzioni biologiche perdute, ma anche ruoli sociali e affettivi essenziali. Il successo di questa integrazione mostra che l’obiettivo finale di queste tecnologie non è solo riparare il corpo, ma restituire il senso di partecipazione e la pienezza della vita.

Di Fantasy