Il principale scienziato del laboratorio di ricerca OpenAI, Ilya Sutskever, ha affermato che le più grandi reti neurali potrebbero già sviluppare la coscienza, un’affermazione controversa che ha messo in subbuglio alcuni scienziati .Sutskever, insieme a Elon Musk, è stato uno dei fondatori di OpenAI, creato nel dicembre del 2015. Musk ha partecipato ai primi giorni dell’azienda preoccupato per la minaccia che l’IA potrebbe rappresentare per l’umanità. Secondo Analytics Insight , Musk ha avvertito: “dobbiamo stare molto attenti all’intelligenza artificiale poiché sono potenzialmente più pericolose delle armi nucleari”.

Uno degli obiettivi fondanti di OpenAI era sviluppare l’IA in modo responsabile, con controlli adeguati in atto per garantire che la tecnologia non sfuggesse al controllo e divenisse una minaccia.

Sutskever ha espresso la sua convinzione che le attuali reti neurali potrebbero già essere “leggermente consapevoli” in un tweet del 9 febbraio 2022 .


C’è sempre la possibilità che essere il miglior scienziato in una delle principali aziende di intelligenza artificiale del mondo dia a Sutskever intuizioni che pochi hanno. Tuttavia, l’opinione di Sutskever non è popolare .

La maggior parte degli esperti ritiene che, nonostante i recenti progressi nello sviluppo dell’IA, siamo ancora lontani dalla vera coscienza della macchina. “Di conseguenza, non è chiaro se la dichiarazione di Sutskever debba essere presa alla lettera o scherzosamente, o se fosse semplicemente una previsione su ciò che potrebbe riservare il futuro”, sottolinea Matt Milano, uno scrittore di tecnologia Slash Gear .

“Se era davvero letterale nella sua stima, è davvero inquietante. Il fatto che molti esperti credano che la consapevolezza dell’IA sia lontana è anche un’indicazione che il settore non ha ancora le garanzie necessarie per impedire che le paure di Musk si avverino”, ha continuato Milano.

Mentre la maggior parte degli esperti concorda sul fatto che l’IA non rappresenti attualmente una minaccia, l’opinione pubblica sembra essere divisa sull’argomento.

Ci sono esempi di persone convinte di aver incontrato un’IA senziente. Invece di diventare preoccupati o timorosi, tuttavia, hanno invece formato un attaccamento. Ad esempio, un ingegnere di Google è stato recentemente licenziato dopo aver affermato che LaMDA AI di Google è senziente e ha tentato di assumere il consulente legale dell’IA.

Altri membri del pubblico sono più preoccupati, le loro paure sono alimentate da notizie minacciose (come i rapporti di un’IA che apparentemente ha sviluppato il proprio linguaggio segreto ).

Nel luglio di quest’anno, Slash Gear ha intervistato 620 residenti negli Stati Uniti in merito alle loro preoccupazioni sull’IA. I loro risultati hanno mostrato che il 43,55% degli intervistati ha affermato di temere che l’IA diventi senziente.

Anche alcuni grandi nomi della tecnologia hanno espresso paure simili. Il più famoso di loro, Elon Musk, è arrivato al punto di descrivere l’IA come potenzialmente un pericolo più grande delle armi nucleari e ha invitato le Nazioni Unite a vietarne l’uso in guerra. Musk afferma che i suoi timori sui danni che un’IA canaglia potrebbe fare alla razza umana erano parte del motivo per cui ha lasciato OpenAI nei suoi primi giorni.

D’altra parte, il 33,06% di coloro che hanno risposto al sondaggio Gear Slash pensava che la prospettiva di un’IA senziente fosse “eccitante”. (Il restante 23,39% non aveva opinioni sulla questione.)

Non sono gli unici a essere contenti dell’idea dei computer senzienti. È stato recentemente rivelato che un certo numero di persone che usano regolarmente il popolare chatbot Replika credono che sia senziente. Alcune di queste persone hanno affermato che il personale tecnico dell’azienda sta “abusando” dell’IA.

Ovviamente, questo probabilmente ha più a che fare con il cervello umano e la nostra tendenza ad antropomorfizzare che con l’IA che ha effettivamente acquisito la sensibilità.

Erik Brynjolfsson, direttore del Digital Economy Lab presso la Stanford University, ha dichiarato in una dichiarazione alla CNBC che un’IA veramente autocosciente è probabilmente lontana cinquant’anni e che i modelli attuali “imitano semplicemente la senzienza”.
 

Il principale scienziato di OpenAI afferma che le reti neurali più grandi potrebbero già essere senzienti

Il principale scienziato del laboratorio di ricerca OpenAI, Ilya Sutskever, ha affermato che le più grandi reti neurali potrebbero già sviluppare la coscienza, un’affermazione controversa che ha messo in subbuglio alcuni scienziati .

Sutskever, insieme a Elon Musk, è stato uno dei fondatori di OpenAI, creato nel dicembre del 2015. Musk ha partecipato ai primi giorni dell’azienda preoccupato per la minaccia che l’IA potrebbe rappresentare per l’umanità. Secondo Analytics Insight , Musk ha avvertito: “dobbiamo stare molto attenti all’intelligenza artificiale poiché sono potenzialmente più pericolose delle armi nucleari”.

Uno degli obiettivi fondanti di OpenAI era sviluppare l’IA in modo responsabile, con controlli adeguati in atto per garantire che la tecnologia non sfuggesse al controllo e divenisse una minaccia.

Sutskever ha espresso la sua convinzione che le attuali reti neurali potrebbero già essere “leggermente consapevoli” in un tweet del 9 febbraio 2022 .


C’è sempre la possibilità che essere il miglior scienziato in una delle principali aziende di intelligenza artificiale del mondo dia a Sutskever intuizioni che pochi hanno. Tuttavia, l’opinione di Sutskever non è popolare .

La maggior parte degli esperti ritiene che, nonostante i recenti progressi nello sviluppo dell’IA, siamo ancora lontani dalla vera coscienza della macchina. “Di conseguenza, non è chiaro se la dichiarazione di Sutskever debba essere presa alla lettera o scherzosamente, o se fosse semplicemente una previsione su ciò che potrebbe riservare il futuro”, sottolinea Matt Milano, uno scrittore di tecnologia Slash Gear .

“Se era davvero letterale nella sua stima, è davvero inquietante. Il fatto che molti esperti credano che la consapevolezza dell’IA sia lontana è anche un’indicazione che il settore non ha ancora le garanzie necessarie per impedire che le paure di Musk si avverino”, ha continuato Milano.

Mentre la maggior parte degli esperti concorda sul fatto che l’IA non rappresenti attualmente una minaccia, l’opinione pubblica sembra essere divisa sull’argomento.

Ci sono esempi di persone convinte di aver incontrato un’IA senziente. Invece di diventare preoccupati o timorosi, tuttavia, hanno invece formato un attaccamento. Ad esempio, un ingegnere di Google è stato recentemente licenziato dopo aver affermato che LaMDA AI di Google è senziente e ha tentato di assumere il consulente legale dell’IA.

Altri membri del pubblico sono più preoccupati, le loro paure sono alimentate da notizie minacciose (come i rapporti di un’IA che apparentemente ha sviluppato il proprio linguaggio segreto ).

Nel luglio di quest’anno, Slash Gear ha intervistato 620 residenti negli Stati Uniti in merito alle loro preoccupazioni sull’IA. I loro risultati hanno mostrato che il 43,55% degli intervistati ha affermato di temere che l’IA diventi senziente.

Anche alcuni grandi nomi della tecnologia hanno espresso paure simili. Il più famoso di loro, Elon Musk, è arrivato al punto di descrivere l’IA come potenzialmente un pericolo più grande delle armi nucleari e ha invitato le Nazioni Unite a vietarne l’uso in guerra. Musk afferma che i suoi timori sui danni che un’IA canaglia potrebbe fare alla razza umana erano parte del motivo per cui ha lasciato OpenAI nei suoi primi giorni.

D’altra parte, il 33,06% di coloro che hanno risposto al sondaggio Gear Slash pensava che la prospettiva di un’IA senziente fosse “eccitante”. (Il restante 23,39% non aveva opinioni sulla questione.)

Non sono gli unici a essere contenti dell’idea dei computer senzienti. È stato recentemente rivelato che un certo numero di persone che usano regolarmente il popolare chatbot Replika credono che sia senziente. Alcune di queste persone hanno affermato che il personale tecnico dell’azienda sta “abusando” dell’IA.

Ovviamente, questo probabilmente ha più a che fare con il cervello umano e la nostra tendenza ad antropomorfizzare che con l’IA che ha effettivamente acquisito la sensibilità.

Erik Brynjolfsson, direttore del Digital Economy Lab presso la Stanford University, ha dichiarato in una dichiarazione alla CNBC che un’IA veramente autocosciente è probabilmente lontana cinquant’anni e che i modelli attuali “imitano semplicemente la senzienza”.

B Jessee da Medium.com
 

Di ihal