Una recente notizia che sta sconvolgendo Hollywood coinvolge il casting di un robot come protagonista di un film di fantascienza da 70 milioni di dollari.

Potresti essere perplesso sul motivo per cui qualsiasi avviso indebito deriverebbe dalla scelta di usare un robot in un film di fantascienza, che a quanto pare è stato il caso per decenni.

Ecco il colpo di scena.

I sostenitori del film sostengono che il robot utilizzerà l’intelligenza artificiale e sostanzialmente reciterà o reciterà nello stesso modo in cui un attore umano potrebbe farlo , quindi, nella loro stima, questa sarà la prima volta che un film è interpretato da un attore artificialmente intelligente .

È stato affermato che al robot è stato “insegnato” come agire e abbraccia l’approccio riverito noto come metodo di recitazione.

Quindi, solo per chiarire, questo non è un tipo di montaggio cinematografico in CGI che mostrerà il robot, e nemmeno il robot avrà un nascondiglio umano al suo interno o un gestore seduto fuori dalla telecamera con un telecomando. Presumibilmente il robot utilizzerà la sua intelligenza artificiale incarnata e agirà attraverso l’uso di movimenti simili a quelli della voce e del corpo, da soli.

Per tutti voi aspiranti attori, se non eravate già preoccupati per la desolazione di un lavoro di recitazione, notate che una volta che quei robot basati sull’intelligenza artificiale entrano a far parte del SAG (Screen Actors Guild) e iniziano le audizioni per ruoli succosi in film e TV, diventerai ancora più scoraggiato per il tuo percorso professionale scelto.


Immagina di tornare a casa dopo un’audace audizione per una parte in una nuova serie e dopo essere stato chiesto da un amico intimo su come è andata, per la quale poi brontoli che un robot maledetto sembrasse conquistare il produttore e il regista e hai lamentato una volta di nuovo ha perso un concerto di recitazione per uno di quegli androidi trasformati in robot.

Maledire i robot!

Nel caso in cui questo film di fantascienza sia ancora in programma, il robot è considerato una femmina, almeno come affermato dai registi, e quindi i titoli dicono che il robot è l’attrice protagonista nel film.

Inoltre, al robot è stato dato un nome, Erica.

Come facciamo a sapere che il robot è una femmina?

Perché lo dice il produttore di robot, e dal momento che al robot è stato dato un aspetto facciale che ricorda una donna e la voce e i manierismi programmati nel robot sono simili a ciò che è considerato una femmina (per le opinioni di coloro che realizzano il film).

Se ti stai chiedendo se gli aspetti di genere vanno più in profondità, sembra abbastanza improbabile.

Ovviamente, una critica ovvia e immediata è che questa “femmina” che è un ‘”attrice” interpreterà qualsiasi ipotesi stereotipata che il produttore di robot e coloro che sono coinvolti nel film hanno sulla natura delle donne e della femminilità.

Solo questo è degno di preoccupazione.

Ci sono molte altre preoccupazioni da accumulare su questa nozione di attore o attrice cosiddetti artificialmente intelligenti.

Dal punto di vista dell’intelligenza artificiale, il tutto puzza e puzza di balderdash, sfortunatamente.

Come mai?

Laddove questo sembra essere diretto, il cineasta suggerisce che l’IA instilla gli stessi processi e capacità di pensiero di quelli umani, in sostanza come se l’IA fosse diventata senziente (per la mia spiegazione sull’IA e la sensibilità, vedi il link qui ).

Per favore, sappi questo: oggi non vi è alcuna intelligenza artificiale senziente e nessuna intelligenza artificiale è all’orizzonte, quindi qualsiasi notizia o media che tenta di dire altrimenti perpetua erroneamente un mito e una menzogna inconsapevoli .

Potresti essere tentato di scrollarti di dosso uno qualsiasi dei rapporti che alludono all’intelligenza artificiale come l’equivalente del pensiero umano e vederlo come un divertimento ozioso e non una cosa seria.

Il pericolo con questi tentativi di antropomorfizzazione dell’IA di oggi è che può far credere al pubblico che l’IA può fare cose che non può fare, e in quella convinzione può mettere le persone nei guai assumendo che l’IA svolgerà attività in un modo simile all’essere umano modo contemplativo.

Non innamorarti di quel falso.

Questo è il motivo per cui l’idea di un film ben budget che opta per cercare di promuovere la farsa dell’IA come equivalente alle capacità umane è sommariamente preoccupante e decisamente preoccupante.

Se il film ottiene un forte botteghino dopo essere stato finito e rilasciato, è probabile che il film e la sua presunta campagna di marketing rafforzino ulteriormente la bizzarria di ciò che è l’IA. Le persone che guardano il film potrebbero non riuscire a credere a ciò che vedono.

Chiunque sia seriamente intenzionato all’intelligenza artificiale potrebbe inizialmente essere entusiasta di ricevere tale attenzione sull’intelligenza artificiale, anche se questa euforia iniziale da parte degli sviluppatori dell’IA diventerà sobria molto rapidamente quando gli viene chiesto di offrire l’intelligenza artificiale che può fare cose che solo gli umani possono fare oggi.

Oops, la realizzazione di limiti a ciò che l’IA può fare colpirà il proverbiale fan.

In breve, nonostante l’allusione di lanciare un robot basato sull’intelligenza artificiale che apparentemente può agire e esibirsi da solo, questo è ancora un artificio programmato che non ha parvenza di intelligenza umana e rappresenta semplicemente vari trucchi per sembrare umani.

Modi per creare false impressioni AI

Il robot chiamato Erica è noto tra gli addetti ai lavori di intelligenza artificiale ed è in circolazione da diversi anni come un progetto di ricerca in corso (vedi questo documento di ricerca e questo qui ).

Di tanto in tanto, il robot ha scritto alcune storie confuse su ciò che fa.

Il problema con la maggior parte di quelle storie appariscenti è che sono spesso scritte da qualcuno che non ha assolutamente idea di cosa sia l’IA, né di come funzionano i robot, e quindi lo scrittore tende a sgorgare e ad innamorarsi del fatto che l’ultima svolta nell’IA e nella robotica abbia arrivato (che, non hanno idea di come formulare un tale giudizio o annuncio).

Può essere difficile discernere se quegli scrittori sono ingenui, o semplicemente vogliono crederci, o forse stanno facendo una storia da occhiolino, o cosa hanno in mente.

Le istanze più allettanti coinvolgono lo sceneggiatore a cui viene consegnata una sceneggiatura, contenente domande predeterminate da porre al robot basato sull’intelligenza artificiale, e lo scrittore lo fa, volentieri e senza mettere in discussione l’adeguatezza di tale approccio al fare un “colloquio” o una parvenza di rapporti investigativi.

Siamo tutti abituati ai progressi nell’elaborazione del linguaggio naturale (PNL) emersi negli ultimi anni, come dimostrato dalla popolarità di Alexa, Siri e simili. All’inizio, le persone che non avevano familiarità con la PNL dei nostri giorni erano scioccate nello scoprire che quei sistemi di PNL sembravano rispondere ai comandi verbali.

Chiunque abbia provato a utilizzare questi sistemi di PNL per un certo periodo di tempo e per qualsiasi tipo di dialogo impegnativo è ora della consapevolezza che, nonostante i grandi progressi finora compiuti, l’IA NLP è ancora molto lontana dall’essere lo stesso conversatore degli umani ( in effetti, c’è un’enorme quantità di ricerche sull’intelligenza artificiale conversazionale , che tenta di spingere in avanti queste capacità, vedi la mia indicazione a questo link qui ).

Se qualcuno ti consegna uno script di domande e fai queste domande a un sistema di intelligenza artificiale, non devi essere uno scienziato missilistico per indovinare che la PNL risponderà con risposte potenzialmente umane, a causa della sua programmazione preventiva per farlo .

Nel momento in cui vieni dalla sceneggiatura, diventa possibile iniziare a rilevare i confini di ciò che l’IA può fare. Potrebbe tenere il passo brevemente e poi, man mano che approfondirai quella che sarebbe una discussione quotidiana con un essere umano, gradualmente l’IA vacillerà in termini di rimanere come un interlocutore apparentemente coinvolgente.

Potresti essere interessato a conoscere alcuni dei trucchi del commercio che vengono utilizzati per creare l’impressione che la PNL AI sia umana o abbia capacità simili all’uomo.

Un approccio è di fare in modo che i riempitivi vocali esprimano la PNL, come dire “uhuh” o “ok” che un essere umano potrebbe fare quando parli. Questo ti dà la sensazione che l’IA ti stia attivamente ascoltando, ma è più un espediente piuttosto che una parvenza di comprensione o comprensione.

Un altro strumento utile è utilizzare le espressioni di fallback quando necessario.

Immaginiamo che tu abbia espresso un lungo commento e che la PNL AI non abbia idea di ciò che hai dichiarato, non essendo stato in grado di analizzare le parole e provare a trovare una risposta allineata. In tal caso, anziché affermare direttamente e onestamente che il sistema non comprende ciò che hai detto, il che ovviamente è un omaggio alla debolezza della AI NLP, la risposta sarebbe invece qualcosa di molto “interessante” o “dimmi di più. ”

Il bello di queste affermazioni di fallback è che tenderai a pensare che la PNL AI abbia compreso ciò che hai detto ed è impegnata e desiderosa di ulteriori discussioni.

Il pappagallo è anche un mezzo utile per ingannare qualcuno.

Se un essere umano dice all’intelligenza artificiale di essere stanco, la risposta può essere semplicemente elaborata come “dimmi perché sei stanco” e l’essere umano quindi pensa che l’IA sia comprensiva e abbia compreso il discorso (non esiste alcun tipo di ragionamento di buon senso ancora nell’intelligenza artificiale di oggi e un lungo cammino da percorrere per arrivarci, vedi la mia discussione a questo link qui ).

La ciliegina sulla torta comporta l’ aggiunta di azioni apparentemente emotive come offrire una risata o forse un sospiro, che sembrano tutte risposte umane. Questa però può essere un’arma a doppio taglio in quanto se l’IA NLP vocalizza le risate, ma non hai detto qualcosa presumibilmente divertente, può potenzialmente rivelare che le risate inscatolate sono insincere e rompere l’impiallacciatura dell’essere umani.

Potresti trovare interessante un concetto famoso chiamato valle misteriosa .

È una teoria secondo cui quando un robot basato sull’intelligenza artificiale procede dall’essere un robot ovvio all’apparenza di essere umano, ci sarà un momento in cui l’apparenza inizia a suscitare repulsione da un essere umano che interagisce con il robot. Apparentemente, quando riesci a discernere prontamente che un robot è semplicemente un robot, sei tollerante e disposto a interagire, ma quando inizia ad avvicinarsi eccessivamente al comportamento umano, il risultato sembra inquietante.

In questo senso, il robot AI cade in una “valle” in termini di sentimenti nei confronti del sistema, e l’unica via d’uscita sarebbe che si ritirasse nel suo precedente sé minore, o uscisse saltando fino a diventare indistinguibile da un essere umano.

Non tutti concordano sul fatto che questa proposta misteriosa della valle sia valida, sebbene fornisca un foraggio interessante per considerare come implementare al meglio un sistema robotico basato sull’intelligenza artificiale.

Presenterò brevemente un altro aspetto che potresti trovare interessante sull’intelligenza artificiale.

Nel campo dell’intelligenza artificiale esiste un tipo di test noto come test di Turing (per una copertura dettagliata, consultare questo link qui ). L’idea implica che un sistema di intelligenza artificiale sia dietro a una tenda, nascosto alla vista, e allo stesso modo un umano dietro un’altra tenda, e un moderatore inizia a porre entrambe le varie domande. Se il moderatore non riesce a distinguere tra i due su quale sia l’IA e quale sia l’umano, presumibilmente l’IA ha dimostrato con successo l’equivalente dell’intelligenza umana e ha superato un test che tenta di effettuare tale valutazione (il test è nominato dal suo inventore, il famoso matematico Alan Turing).

A prima vista, il test di Turing sembra perfettamente sensato.

Ci sono alcuni potenziali problemi.

Forse il problema più grande è associato al moderatore. Se il moderatore fa un pessimo lavoro nel porre domande e nel coinvolgere i concorrenti nascosti, la natura e la portata dell’interazione potrebbero essere insufficienti per giudicare adeguatamente su quale sia.

Questo è lo stesso del mio precedente punto su quegli scrittori o giornalisti che seguono una sceneggiatura predeterminata. In tal senso, sono in qualche modo un “moderatore” nel condurre un test dell’intelligenza artificiale, ma continuano a seguire una serie prestabilita di domande.

Tieni presente anche che la maggior parte dei sistemi di PNL AI ha un corpus di dialogo uomo-macchina, ovvero un database che impiega varie tecniche di intelligenza artificiale, e una volta che vai oltre quella base stabilita, c’è un degrado in ciò che la PNL AI può fare.

Quando vuoi provare a capire quanto possa essere superficiale o profonda una PNL dell’IA, il mezzo più semplice è saltare tutto in termini di aree di conoscenza coinvolte, misurando quali sono i confini del sistema.

Per favore, non fraintendere le mie osservazioni come se l’uso di AI NLP fosse in qualche modo sbagliato o da evitare.

Ci sono molti usi utili per AI NLP e dovrebbe essere preannunciato per quello che può fare.

Forse hai usato alcuni dei più recenti NLP AI per prepararti per un colloquio di lavoro, o nel caso di anziani , AI NLP può essere un mezzo semplice per far funzionare gli elettrodomestici in tutta la loro casa . I chatbot sono rapidamente sorti nell’uso online per compilare una domanda di prestito auto e un’assistenza automatizzata simile si sta verificando tramite la PNL.

Il problema si presenta quando l’IA viene descritta come più abbellita e più capace di quanto non sia in realtà.

Il crescente interesse per l’etica dell’IA è stato in parte scatenato da affermazioni inverosimili fatte dagli sviluppatori dell’IA e da quei sistemi di intelligenza artificiale che sono eccessivamente in grado di rappresentare la loro intelligenza artificiale come un essere umano quando non è affatto così (per aspetti sull’importanza dell’IA Etica, vedi la mia copertura a questo link ).

Cercare di migliorare la PNL e i robot dell’IA verso il lodevole obiettivo di essere simili all’essere umano va bene e incoraggiato, ma i risultati devono essere condivisi con il pubblico in modo da offrire avvertimenti necessari e limiti apertamente elencati di ciò che la tecnologia può fare.

In termini di robot Erica che presumibilmente usava il “metodo di recitazione” per perfezionare la sua arte, una tale affermazione indubbiamente causerebbe a Konstantin Stanislavski il turnover nella sua tomba (è un famoso praticante di teatro russo noto per Il metodo di recitazione). In breve, le tecniche coinvolgono un attore umano che trova i suoi motivi interiori, mescolando i loro pensieri consci e subconsci.

Cercare di affermare che una delle IA di oggi è stata in grado di fare lo stesso non è solo un’iperbole, ma denigra anche la sostanza di quale metodo di recitazione è diventato e come funziona.

Ma questo è normale per il corso quando l’IA è spesso rappresentata in modi iperbolici.

Considera per un momento altre aree in cui l’IA viene talvolta descritta in modo inappropriato, come l’ avvento delle vere auto a guida autonoma .

Disimballiamo la questione e vediamo.

Comprensione dei livelli di auto a guida autonoma

A titolo di chiarimento, le vere auto a guida autonoma sono quelle che l’IA guida l’auto da sola e non c’è assistenza umana durante l’attività di guida.

Questi veicoli senza conducente sono considerati di Livello 4 e Livello 5 (vedere la mia spiegazione a questo link qui ), mentre un’auto che richiede a un guidatore umano di condividere lo sforzo di guida viene generalmente considerata a Livello 2 o Livello 3 . Le auto che condividono il compito di guida sono descritte come semi-autonome e in genere contengono una varietà di componenti aggiuntivi automatizzati denominati ADAS (Advanced Driver-Assistance Systems).

Non c’è ancora una vera auto a guida autonoma al Livello 5, che non sappiamo ancora se sarà possibile raggiungere questo obiettivo , né quanto tempo ci vorrà per arrivarci.

Nel frattempo, gli sforzi di livello 4 stanno gradualmente cercando di ottenere una certa trazione sottoponendosi a prove della strada pubblica molto strette e selettive, anche se ci sono polemiche sul fatto che questo test debba essere consentito di per sé (siamo tutti cavie morte o morte in un esperimento che si svolgono sulle nostre autostrade e strade secondarie, alcuni sottolineano, vedere la mia indicazione a questo link qui ).

Poiché le auto semi-autonome richiedono un guidatore umano, l’adozione di questi tipi di auto non sarà nettamente diversa dalla guida di veicoli convenzionali, quindi non c’è molto di nuovo di per sé su questo argomento (tuttavia, come vedrai in un momento, i punti successivi saranno generalmente applicabili).

Per le auto semi-autonome, è importante che il pubblico abbia bisogno di essere avvertito di un aspetto inquietante che si è verificato di recente, vale a dire che, nonostante quei guidatori umani che continuano a pubblicare video di se stessi addormentarsi al volante di un’auto di Livello 2 o Livello 3 , dobbiamo tutti evitare di essere indotti in errore nel credere che il conducente possa distogliere la propria attenzione dal compito di guida durante la guida di un’auto semi-autonoma.

Sei la parte responsabile delle azioni di guida del veicolo, indipendentemente da quanta automazione possa essere lanciata in un Livello 2 o Livello 3.

Auto a guida autonoma e allusioni AI

Ritornando ai punti sull’intelligenza artificiale potenzialmente errata in termini di capacità, ci sono molti esempi nel regno delle auto a guida autonoma.

Uno appena descritto è costituito da auto di Livello 2 e Livello 3 , per cui alcune case automobilistiche e aziende tecnologiche a guida autonoma sopravvalutano o tendono a sottintendere che il sistema semi-autonomo può fare più di quanto possa.

E, per quelli di voi che erano dubbiosi sull’importanza o sul serio di false dichiarazioni dell’IA, si noti che nel caso di guidare un’auto, si tratta di un affare molto serio che consiste in conseguenze sulla vita o sulla morte.

Un guidatore umano che non comprende i limiti dell’IA che sta condividendo il compito di guida è destinato a finire in situazioni rischiose e farsi ferire o uccidere, insieme a tutti i passeggeri e altri che potrebbero trovarsi nelle vicinanze in caso di incidente d’auto si verifica.

Nel caso del Livello 4 e del Livello 5 , non ci sarà un guidatore umano al volante, e quindi la questione della co-condivisione della guida viene risolta.

Detto questo, solo perché una casa automobilistica o una società di tecnologia a guida autonoma afferma di avere un’intelligenza artificiale in grado di guidare un’auto in modo corretto e sicuro, non significa che dovremmo prenderli in parola. Avere una vera auto a guida autonoma in roaming per le nostre strade comporta un veicolo multi-ton che può fare danni e distruzione enormi se non è pronto per guidare da solo.

Conclusione

Il problema con il film di fantascienza e il suo apparente sforzo di esagerare le capacità dell’IA sono che ciò può estendersi ad altre aree dell’utilizzo dell’IA.

Forse qualcuno che guarda il film diventerà più audace con la sua auto di Livello 2 e Livello 3, credendo nel film che l’intelligenza artificiale ovunque sia magicamente capace e senziente, e quindi è accettabile essere meno attenti al compito di guida.

Sarebbe un peccato (o peggio) e trasformerebbe quella che avrebbe dovuto essere una fantascienza di evasione in una catastrofe nel mondo reale.

Non credere a tutto ciò che vedi e soprattutto dubitare quando l’IA di oggi inizia a parlare o ad agire come se potesse pensare come un essere umano, il che assicuro non è altro che una forma di recitazione con metodo programmatico, per cui alcune ingegnose tecniche di AI stanno cercando di prendere su un ruolo recitante come esseri umani, nonostante non sia vicino alle capacità umane e si esibisca al di fuori della loro lega.

Il noto attore Sanford Meisner, il creatore della tecnica di recitazione Meisner, aveva affermato che “recitare si comporta in modo veritiero in circostanze immaginarie”.

Credo che vogliamo un’intelligenza artificiale che si comporti in modo veritiero nelle circostanze del mondo reale .

Di ihal