Com’è guardare una IA IBM discutere con successo gli umani

Project Debater discuterà con te e farà battute

In un piccolo evento a San Francisco la scorsa notte, IBM ha ospitato due discussioni in stile club tra due umani e un’intelligenza artificiale chiamata ” Project Debater “. L’obiettivo era che l’IA si cimentasse in una serie di argomenti ragionati secondo alcune regole piuttosto standard. di dibattito: nessuna consapevolezza dell’argomento del dibattito prima del tempo, nessuna risposta pre-inscatolata. Ciascuna parte ha tenuto un discorso introduttivo di quattro minuti, una confutazione di quattro minuti agli argomenti dell’altro e una dichiarazione conclusiva di due minuti.

Sembra un enorme balzo in avanti rispetto a quell’altra spumeggiante dimostrazione che tutti ricordiamo da IBM quando Watson ha ripulito il pavimento con la sua competizione aJeopardy . La dimostrazione AI di IBM è stata costruita su questa base. Aveva molti corpora di dati da cui attingere, proprio come Watson nel passato. E come Watson, è stato in grado di analizzare i contenuti di tutti quei dati per trovare la risposta pertinente. Ma questa volta, la “risposta” era costituita da punti cogenti relativi al sovvenzionamento dello spazio e della telemedicina disposti in un discorso di quattro minuti che difendeva ciascuno.

Project Debater ha citato le fonti, assecondando l’affinità del pubblico per bambini e veterani, e ha fatto un lavoro passabile di cracking uno scherzo o due rilevanti nel processo.

È piuttosto impressionante. In sostanza, in appena un paio di minuti è stato creato un argomento di tipo “paper” a livello di matricola quando veniva presentato un argomento di discussione per il quale non aveva una preparazione specifica. Il sistema ha “diverse centinaia di milioni di articoli” che presume siano accurati nelle sue banche dati, che sono circa 100 aree di conoscenza. Quando riceve un argomento di discussione, ci vogliono un paio di minuti per passare attraverso di essi, decide quali sarebbero gli argomenti migliori a favore dell’argomento, e quindi crea un breve discorso che descrive quei punti.

Alcuni dei punti che ha reso erano abbastanza facili; alcune fonti citate, e alcuni sono stati chiaramente criptati dagli articoli. Tuttavia, è stato in grado di passare dalla modalità “informazione presente” che di solito pensiamo quando sentiamo l’intelligenza artificiale in una modalità “crea un argomento”. Ma ciò che mi ha colpito di più è che ha tentato di discutere direttamente con i punti che i suoi avversari umani hanno fatto, in tempo quasi reale. (Il sistema aveva bisogno di un paio di minuti per analizzare il discorso di quattro minuti dell’uomo prima che potesse rispondere).

L’IA ERA IN BUONA FEDE? NON ERO COMPLETAMENTE SICURO
Francamente mi ha fatto sentire un po ‘inquieto, ma non a causa delle solite preoccupazioni come “i robot diventeranno consapevoli di sé e prendere il sopravvento” o “AI sta arrivando per i nostri lavori.” Era qualcosa di più sottile e più difficile da mettere il dito sopra. Forse per la prima volta, mi sentivo come se un’IA volesse dissimulare. Non l’ho visto mentire, né penso che abbia tentato di ingannarci, ma si è impegnato in una tattica di dibattito che, se hai visto un umano provarlo, ti avrebbe fatto credere un po ‘meno quell’umano.

Ecco la scena: un dibattito umano stava discutendo contro l’idea che il governo avrebbe dovuto sovvenzionare l’esplorazione spaziale. Ha creato una struttura per comprendere il mondo, che è una tattica di discussione piuttosto comune. I sussidi, ha sostenuto, dovrebbe andare bene uno dei due criteri specifici: soddisfare i bisogni umani fondamentali e la creazione di cose che solo potrebbe essere fatto dal governo. L’esplorazione dello spazio non era adatta al progetto. Giusto.

Project Debater, il cui compito era di rispondere direttamente a quei punti, non li ha completamente confutati. Ha sicuramente parlato nella stessa zona. Sosteneva che “sovvenzionare l’esplorazione spaziale di solito restituisce l’investimento” sotto forma di impulsi economici dalla scoperta scientifica, e ha affermato che per una nazione come gli Stati Uniti “avere un programma di esplorazione spaziale è una parte fondamentale dell’essere un grande potere. ”

Ciò che il Project Debater non ha fatto è stato di coinvolgere direttamente i criteri stabiliti dal suo avversario umano. Ed ecco la cosa: se fossi in quella discussione, neanche io l’avrei fatto. È una forte tattica di dibattito per impostare il quadro del dibattito e accettare tale quadro è spesso una ricetta per perdere.

Quindi la domanda è: il Project Debater semplicemente non ha capito i criteri, o ha capito e ha scelto di non impegnarsi su quei termini? Guardando il dibattito, ho pensato che la risposta fosse che non lo capiva, ma non ero positivo . Non potrei dire la differenza tra un’IA non intelligente come potrebbe essere e un’IA che è molto più intelligente di quanto abbia mai visto un’IA prima. È stato un momento abbastanza cognitivo dissonante. Come ho detto, inquietante.

“SE CREDE DAVVERO CHE CAPISCA COSA STAVA DICENDO QUELL’OPPONENTE, CERCHERÀ DI FARE UN ARGOMENTO MOLTO FORTE CONTRO QUESTO PUNTO IN PARTICOLARE”.
Jeff Welser, VP e direttore del laboratorio per la ricerca IBM ad Almaden, mi ha messo a mio agio. Project Debater non l’ha capito. Ma non l’ha ottenuto in un modo davvero interessante e importante. “Non c’è stato alcuno sforzo per farlo giocare a giochi complicati o dissimulatori”, mi dice (phew). “Ma in realtà fa … esattamente quello che fa un umano, ma lo fa entro i suoi limiti.”

Essenzialmente, Project Debater assegna un punteggio di confidenza a ogni informazione che capisce. Quanto è sicuro il sistema che capisca effettivamente il contenuto di ciò che viene discusso? “Se è sicuro di aver capito bene, se crede davvero che capisca cosa stava dicendo quell’opponente, cercherà di fare un argomento molto forte contro questo punto in particolare”, spiega Welser.

“Se è meno sicuro,” dice, “farà del suo meglio per fare una discussione che sarà convincente come argomento anche se non risponde esattamente a quel punto – che è esattamente ciò che fa anche un umano a volte.”

Quindi, l’umano dice che il governo dovrebbe avere criteri specifici che riguardano i bisogni umani di base per giustificare le sovvenzioni. Project Debater risponde che lo spazio è fantastico e buono per l’economia. Un essere umano potrebbe scegliere quella tattica come un modo subdolo per evitare di discutere sui termini sbagliati. Project Debater aveva diverse motivazioni nei suoi algoritmi, ma non così diverso.

Il punto di questo esperimento non era di farmi pensare che non potevo fidarmi del fatto che un computer stia discutendo in buona fede, anche se ciò ha fatto molto. Il punto è che IBM stava dimostrando di poter addestrare l’intelligenza artificiale in nuove aree di ricerca che potrebbero essere utili in contesti reali e pratici.

Il primo sta analizzando molte informazioni in un contesto decisionale. La stessa tecnologia in grado di leggere un corpus di dati e elaborare una serie di pro e contro per un dibattito potrebbe essere (ed è stata) utilizzata per decidere se un titolo potrebbe valere la pena investire in un sistema. Il sistema di IBM non ha fatto il giudizio di valore, ma ha fornito una serie di informazioni alla banca mostrando entrambi i lati di un dibattito sullo stock.

“QUESTO È ANCORA UN PROGETTO A LIVELLO DI RICERCA.”
Per quanto riguarda la parte che discute, Welser dice che “ci aiuta a capire come viene usato il linguaggio”, insegnando un sistema a lavorare in un contesto retorico che è più sfumato del solito “Hey Google, dammi questa informazione e spegni la mia luci “. Forse un giorno potrebbe aiutare un avvocato a strutturare le proprie argomentazioni,” non che Project Debater sarebbe un ottimo avvocato “, ha scherzato Welser. Un altro ricercatore IBM ha suggerito che questa tecnologia potrebbe aiutare a giudicare notizie false.

Quanto è vicino all’essere qualcosa che IBM trasforma in un prodotto? “Questo è ancora un progetto a livello di ricerca”, afferma Welser, anche se “le tecnologie sottostanti in questo momento” stanno già iniziando a essere utilizzate nei progetti IBM.

Nel secondo dibattito, sulla telemedicina, Project Debater ha avuto di nuovo un momento difficile analizzando la sfumatura esatta che il suo avversario umano stava facendo riguardo all’importanza del contatto umano nella diagnosi. Piuttosto che discuterne, è ricaduto su un argomento più ampio, suggerendo che forse l’umano aveva solo paura delle nuove innovazioni.

“Sono un vero sostenitore del potere della tecnologia”, ha scherzato l’intelligenza artificiale, “come dovrei essere.”

Di ihal

Lascia un commento