Le macchine intelligenti stanno iniziando a recuperare
Alcuni mesi fa, mi è stata consegnata una copia sperimentale di ciò che è presumibilmente il dispositivo di apprendimento più potente del mondo. Non sembrava molto. Per cominciare, era rimasto lì a pompare azioni e liquidi in gran parte a caso, i suoi sensori e la sua unità centrale di elaborazione erano sopraffatti dai dati elettromagnetici che arrivavano da ogni direzione.
Ancora oggi sarei diffidente nei confronti di qualsiasi grande pretesa per l’intelletto del nostro bambino. Il suo principale hobby è mettere le cose in bocca. L’amore della sua vita è una lontra divorata dalle tarme. Spesso richiede più interesse per i modelli sul soffitto che nel volto di suo padre.
Eppure, nelle prime settimane della sua esistenza, ha superato una sfida computazionale che sfida le creazioni più avanzate di Google e Microsoft . Può distinguere la notte dal giorno, le voci dalla musica e i suoi genitori dagli altri esseri umani. Con praticamente nessun aiuto dal mondo esterno, ha elaborato come rompere l’assedio di informazioni che occupa ogni suo momento di veglia e per estrarre piccole unità di senso da questa vasta zuppa di futilità. È, per mancanza di una parola migliore, cosciente.
Il mese scorso un gruppo di scienziati di Oxford ha annunciato di aver fatto il primo passo verso la risoluzione di questo aspetto fondamentale di ciò che rende una persona una persona. La loro griglia di “neuroni” elettronici, che misuravano non più di 64 celle su ciascun lato, aveva di per sé stesso iniziato a mettere insieme rappresentazioni visive di triangoli, cerchi e quadrati.
Questo potrebbe non sembrare terribilmente impressionante. Per capire perché segna una vera svolta verso la genuina intelligenza artificiale, e perché il progetto è strettamente monitorato dall’esercito britannico, è importante stabilire le differenze radicali tra la mente umana più cruda e il computer più sofisticato.
L’infanzia sembra un modo laborioso e costoso per costruire un cervello. Ci sono algoritmi in grado di padroneggiare i giochi per computer meglio di qualsiasi altro in poche ore. Ci sono computer in grado di scrivere codice, segnare i propri compiti e comporre poesie e fotografie.
A volte sono capaci di balzare in modo sconcertante come l’ingenuità umana. In Hello World , il suo libro sugli algoritmi, il matematico Hannah Fry racconta come è stato istruito un software per conoscere la differenza tra lupi e husky. Lo ha fatto non guardando gli animali ma raschiando le immagini per la prova di neve. Quando il dott. Fry disse ad un collega anziano dello studio, rispose che suo nipote di quattro anni aveva osservato quanto un husky per strada assomigliasse a un lupo. Come faceva a sapere che non era un lupo, allora? “Perché è al guinzaglio”, rispose il ragazzo.
Queste macchine sono strumenti geniali. Ma non sono intelligenti. Sopportano una dieta di dati accuratamente etichettati, allevati in giardini murati di logica. Possono risolvere quasi tutte le domande che hai posto loro ma non riescono a trovare le domande. Il programma lupo / gattino può essere fantastico nel raccontare le immagini dei lupi dalle immagini degli husky, ma non è in grado di dirti cos’è un cane, o cosa sta facendo un singolo cane, o perché dovrebbe preoccuparsi in primo luogo.
Questa distinzione è importante. Immagina di costruire un drone autonomo da individuare quando la Russia sta ammassando carri armati al confine georgiano. Potresti equipaggiarlo con un algoritmo che è straordinariamente bravo in tank-spotting. Eppure tutti i russi avrebbero dovuto modificare leggermente l’aspetto dei loro carri armati – con grandi adesivi con la faccina sorridente, per esempio – per gettare via l’intero sistema.
La cosa meravigliosa della mente umana è che è robusta e universale. Può individuare husky o carri armati di smiley anche quando non si suppone li cerchi. Alla radice di questa capacità c’è qualcosa che filosofi e psicologi chiamano il problema vincolante. È il compito che affronta ogni bambino: come si mettono insieme le informazioni dall’assalto dei sensi per rendere la realtà comprensibile?
Uno studio condotto da Simon Stringer, direttore dell’Oxford Center for Theoretical Neuroscience and Artificial Intelligence, e pubblicato nella rivista Royal Focus Interface Society , suggerisce che i bambini siano probabilmente nati con questa abilità. I ricercatori sanno da tempo che la corteccia visiva del cervello dei primati contiene cellule “leganti”, che sparano quando ricevono i segnali corrispondenti a un concetto familiare – un husky, per esempio.
Finora, così di routine. Tuttavia il dott. Stringer ei suoi colleghi hanno scoperto che i segnali visivi che trasportano tutti i componenti che rendono riconoscibile un husky – la coda, il naso, il piombo, la colorazione del mantello – vengono trasmessi dai neuroni più in basso nella catena con determinati ritardi. Il neurone legante si attiva solo quando questi segnali arrivano allo stesso tempo. Ciò significa che il segnale non sta solo per il rauco, ma anche per tutte le informazioni che lo accompagnano, ad esempio se sta armando la gamba contro un lampione.
Il Dr Stringer sostiene che questo è il modo in cui il cervello costruisce la “ricchezza semantica” che consente non solo di identificare le cose, ma di farlo in diversi scenari. La stessa attività appare spontaneamente in piccoli gruppi di neuroni artificiali progettati per modellare il cervello dei primati. Questo, sostiene il dott. Stringer, è la base neurale dell’intelligenza.
Forse. È un caso terribilmente grande per costruire da una simulazione al computer e scansioni cerebrali di macachi. Ciò che mostra è che se siamo seriamente intenzionati a concepire un computer veramente intelligente, dobbiamo dare al cervello umano il rispetto che merita. È tempo di tornare al tavolo da disegno.
Oliver Moody è corrispondente scientifico di thetimes.co.uk