Home / Archive by category "Filosofia e IA"

Filosofia e IA

L’intelligenza artificiale ci salverà ?

La svolta nel ripiegamento delle proteine ​​di DeepMind è un promemoria del potere positivo della tecnologia Tl " Techlash " che è iniziato lo scorso anno e si è protratto costantemente fino al 2020, dipinge la tecnologia ei giganti della tecnologia che gestiscono il mondo come monoliti oscuri, proiettando ombre ampie e talvolta sinistre attraverso le nostre vite.A volte è vero. Così tanto potere, controllo e ricchezza si sono consolidati in così pochi. Ma non è mai l'intera storia. La svolta di DeepMind di questa settimana ci ricorda che la tecnologia più all'avanguardia, anche quelle di aziende di cui non ci fidiamo più completamente (DeepMind è di proprietà di Alphabet, proprietaria di Google), può alterare le nostre vite in modi dimostratamente positivi.Cade Metz' New York Times pezzo dettaglio come è stato utilizzato la rete neurale basata DeepMind di trovare una soluzione a un difficile problema della biochimica: Come identificare le pieghe di proteine e di utilizzare tali informazioni per capire ciò che la proteina potrebbe fare e come potrebbe interagire con altre proteine ​​e persino, diciamo, virus.È un lavoro straordinario perché, come fanno gli IA, "AlphaFold" di DeepMind ha scoperto come identificare la forma di una proteina in non anni, mesi o addirittura settimane, ma in meno di un'ora.Ho guardato DeepMind per anni, soprattutto i suoi primi trionfi nello spazio di gioco (ha battuto i campioni nel difficile gioco Go). Metz scrive che questi risultati "non hanno applicazioni pratiche", ma direi che i successi in qualsiasi difficile attività di rete neurale di apprendimento automatico sono una base per quelle ancora più difficili, come capire come una proteina si piegherà in base agli amminoacidi in il filo proteico.Sebbene la svolta non abbia alcuna relazione con l'attuale corsa al vaccino Covid-19, potrebbe avere un enorme impatto sulla cura di malattie intrattabili e sulla prossima pandemia.Per me, tuttavia, questa è una convalida dell'intelligenz...
Continua a Leggere

L’intelligenza artificiale etica non è la stessa cosa di un’intelligenza artificiale affidabile

L'intelligenza artificiale etica non è la stessa di un'intelligenza artificiale affidabile e questo è importante Le soluzioni di intelligenza artificiale (AI) stanno affrontando un maggiore controllo a causa della loro attitudine ad amplificare le decisioni buone e cattive. Più specificamente, per la loro propensione a smascherare e aumentare i pregiudizi sociali e le disuguaglianze esistenti. È giusto, quindi, che le discussioni sull'etica siano al centro della scena con l'aumentare dell'adozione dell'IA. Di pari passo con l'etica arriva il tema della fiducia. L'etica è le regole guida per le decisioni che prendiamo e le azioni che intraprendiamo. Queste regole di condotta riflettono le nostre convinzioni fondamentali su ciò che è giusto ed equo. La fiducia, d'altra parte, riflette la nostra convinzione che un'altra persona - o azienda - sia affidabile, abbia integrità e si comporterà nel modo che ci aspettiamo. Etica e fiducia sono concetti discreti, ma spesso si rafforzano a vicenda. Quindi una soluzione AI etica è intrinsecamente affidabile? Contesto come fattore determinante della fiduciaCertamente, i sistemi non etici creano sfiducia. Non ne consegue, tuttavia, che un sistema etico sarà categoricamente attendibile. Per complicare ulteriormente le cose, non fidarsi di un sistema non significa che non verrà utilizzato. Le funzionalità alla base delle soluzioni di intelligenza artificiale - apprendimento automatico, apprendimento profondo, visione artificiale e elaborazione del linguaggio naturale - non sono etiche o non etiche, affidabili o inaffidabili. È il contesto in cui vengono applicati che conta. Ad esempio, utilizzando il generatore di testo GPT-3 recentemente rilasciato da OpenAI , l'intelligenza artificiale può essere utilizzata per scrivere commenti o ricette sociali. Lo spettro degli algoritmi di intelligenza artificiale che generano propaganda solleva preoccupazioni immediate. La scala alla quale un esperto di intelligenza artific...
Continua a Leggere

Google e l’intelligenza artificiale per valutare le domande di brevetto

Google propone di applicare l'IA alla generazione e alla categorizzazione delle domande di brevetto Quando si tratta delle aspettative dei clienti, la pandemia ha cambiato tuttoScopri come accelerare il servizio clienti, ottimizzare i costi e migliorare il self-service in un mondo incentrato sul digitale. Google afferma che l'industria dei brevetti trarrà vantaggio da modelli di intelligenza artificiale e apprendimento automatico come BERT , un algoritmo di elaborazione del linguaggio naturale che ha raggiunto risultati all'avanguardia quando è stato rilasciato nel 2018. In un white paper pubblicato oggi, il gigante della tecnologia delinea una metodologia per addestrare un modello BERT su oltre 100 milioni di pubblicazioni di brevetti degli Stati Uniti e di altri paesi utilizzando strumenti open source, che possono quindi essere utilizzati per determinare la novità dei brevetti e generare classificazioni per facilitare la categorizzazione. Il corpus globale dei brevetti è ampio, con milioni di nuovi brevetti rilasciati ogni anno. È anche complesso. Le domande di brevetto hanno una media di circa 10.000 parole e sono meticolosamente forgiate da inventori, avvocati ed esaminatori di brevetti. I depositi di brevetti sono scritti anche con un linguaggio che può essere incomprensibile ai lettori non professionisti e fortemente dipendente dal contesto; molti termini sono usati per indicare cose completamente diverse in brevetti diversi. Per tutti questi motivi, Google ritiene che il dominio dei brevetti sia maturo per l'applicazione di algoritmi come BERT. I brevetti, osserva la società, rappresentano un enorme valore commerciale per un certo numero di organizzazioni, con aziende che spendono decine di miliardi di dollari all'anno per sviluppare tecnologia brevettabile e negoziare i diritti per utilizzare la tecnologia risultante e gli uffici brevetti. "Ci auguriamo che la nostra [proposta] aiuterà la più ampia comunità dei brevetti nella sua applicazione...
Continua a Leggere

Yann LeCun ci sono aspettative completamente irrealistiche su ciò che possono fare i modelli di linguaggio su larga scala come GPT-3

Yann LeCun batte GPT-3 - L'hype è reale? Con il suo enorme ronzio, GPT-3 è un modello di linguaggio che ha creato una divisione tra i leader dell'IA. Mentre alcuni lo considerano un'innovazione rivoluzionaria, ci sono alcuni esperti che sono estremamente preoccupati per il suo immenso potenziale. In aggiunta a ciò, Yann LeCun, VP e Chief AI Scientist di Facebook, ha recentemente rilasciato un'enorme dichiarazione su un post di Facebook che denuncia l'enorme modello linguistico di OpenAI. Affermando alcune realtà, Yann LeCun ha scritto un breve saggio sulle sue capacità e sull'hype che è stato creato attorno ad esso. Ha basato le sue argomentazioni su un recente studio esplicativo condotto da Nabla, in cui la società ha ridimensionato alcune delle aspettative significative che le persone hanno costruito attorno a questo enorme modello linguistico . Lo studio ha rilevato che sebbene "… alcuni abbiano affermato che gli algoritmi ora superano i medici in determinati compiti e altri hanno persino annunciato che i robot riceveranno presto diplomi di medicina propri". Questi sono tutti sogni inverosimili con GPT-3 . Secondo LeCun, "… provare a costruire macchine intelligenti aumentando i modelli linguistici è come costruire aeroplani ad alta quota per andare sulla luna". Crede, con ciò, si potrebbero battere i record di altitudine, ma andare sulla luna richiederà un approccio completamente diverso, del tutto. Il 'padrino dell'IA' - Yann LeCun ha, in breve, battuto quelle persone che hanno grandi aspettative da GPT-3 . Ha detto: "Alcune persone hanno aspettative completamente irrealistiche su ciò che possono fare i modelli di linguaggio su larga scala come GPT-3". Lui, però, crede che il modello del linguaggio sia divertente e anche creativo ”, non può ancora sostituire gli esseri umani in determinati compiti. La stessa cosa è stata rilevata dal rapporto Nabla , dopo aver testato GPT-3 in una varietà di scenari medici, si è scoperto che "c'è un'enorme dif...
Continua a Leggere

Un gruppo di scienziati internazionali chiede maggiore trasparenza nella ricerca sull’IA intelligenza artificiale

Scienziati internazionali chiedono maggiore trasparenza nella ricerca sull'IA Un gruppo di scienziati internazionali provenienti da varie istituzioni, tra cui il Princess Margaret Cancer Center, l'Università di Toronto, la Stanford University, la Johns Hopkins, la Harvard School of Public Health e il Massachusetts Institute of Technology, chiede maggiore trasparenza nella ricerca sull'intelligenza artificiale (AI). La forza principale alla base di questo invito è liberare importanti scoperte che potrebbero aiutare ad accelerare il trattamento del cancro basato sulla ricerca. L'articolo in cui gli scienziati hanno invitato le riviste scientifiche a innalzare i loro standard in materia di trasparenza tra i ricercatori computazionali è stato pubblicato su Nature il 14 ottobre 2020. Il gruppo ha anche sostenuto che i loro colleghi dovrebbero rilasciare codice, modello e ambienti computazionali nelle pubblicazioni . Il documento era intitolato " Trasparenza e riproducibilità nell'intelligenza artificiale ". Rilascio dei dettagli dello studio sull'IA Il dottor Benjamin Haibe-Kains è uno scienziato senior presso il Princess Margaret Cancer Center e il primo autore della pubblicazione. "Il progresso scientifico dipende dalla capacità dei ricercatori di esaminare i risultati di uno studio e riprodurre i risultati principali da cui imparare", afferma il dottor Haibe-Kains. “Ma nella ricerca computazionale, non è ancora un criterio diffuso affinché i dettagli di uno studio sull'IA siano completamente accessibili. Questo è dannoso per il nostro progresso. " Le preoccupazioni sono sorte in seguito a uno studio di Google Health pubblicato da McKinney et al. in un'importante rivista scientifica nel 2020, in cui è stato affermato che un sistema di intelligenza artificiale potrebbe superare i radiologi umani in robustezza e velocità quando si tratta di screening del cancro al seno. Lo studio ha ricevuto molta attenzione da parte dei media in varie pubblicazi...
Continua a Leggere

La prossima generazione dell’AI intelligenza artificiale

Il campo dell'intelligenza artificiale si muove velocemente. Sono passati solo 8 anni da quando l'era moderna del deep learning è iniziata al concorso ImageNet del 2012 . I progressi nel campo da allora sono stati mozzafiato e implacabili. Semmai, questo ritmo vertiginoso sta solo accelerando. Tra cinque anni, il campo dell'IA avrà un aspetto molto diverso da come appare oggi. I metodi attualmente considerati all'avanguardia saranno diventati obsoleti; metodi che oggi sono nascenti o ai margini saranno mainstream. Come sarà la prossima generazione di intelligenza artificiale? Quali nuovi approcci AI sbloccheranno possibilità attualmente inimmaginabili nella tecnologia e nel business? Questo articolo evidenzia tre aree emergenti all'interno dell'IA che sono pronte a ridefinire il campo e la società negli anni a venire. Studia adesso. Apprendimento senza supervisione Il paradigma dominante nel mondo dell'IA oggi è l'apprendimento supervisionato. Nell'apprendimento supervisionato, i modelli di intelligenza artificiale apprendono da set di dati che gli esseri umani hanno curato ed etichettato in base a categorie predefinite. (Il termine "apprendimento supervisionato" deriva dal fatto che i "supervisori" umani preparano i dati in anticipo.) Sebbene l'apprendimento supervisionato abbia portato notevoli progressi nell'IA negli ultimi dieci anni, dai veicoli autonomi agli assistenti vocali, ha seri limiti. Il processo di etichettatura manuale di migliaia o milioni di punti dati può essere enormemente costoso e macchinoso . Il fatto che gli esseri umani debbano etichettare i dati manualmente prima che i modelli di machine learning possano ingerirli è diventato un importante collo di bottiglia nell'IA. Ci sono 6 milioni di lavoratori neri che mancano al tuo pool di talenti A un livello più profondo, l'apprendimento supervisionato rappresenta una forma di apprendimento ristretta e circoscritta. Piuttosto che essere in grado di esplorare e assorbire tutte...
Continua a Leggere

Io e l’intelligenza artificiale discutiamo cosa è successo prima del Big Bang una conversazione con il modello linguistico GPT-3 di OpenAI.

Di seguito è riportata una conversazione che ho avuto con il modello linguistico GPT-3 di OpenAI. Ho assegnato a GPT-3 il ruolo di "Essere saggio". Tutto il testo normale è generato dall'intelligenza artificiale, il corsivo sono io. ( Disclaimer ) Puoi anche vedere la mia discussione con l'IA sui diritti delle macchine o parlare con Wise Being tu stesso . Kirk Ouimet : Grato di avere l'opportunità di parlare con te oggi. Essere saggio : grato di poter parlare con te. Kirk Ouimet : Mi piacerebbe parlare con te del Big Bang. Essere saggio : cosa ti piacerebbe imparare? Kirk Ouimet : Puoi riassumere l'idea del Big Bang? Essere saggio : il Big Bang è un processo fisico mediante il quale tutta la materia, l'energia, il tempo, lo spazio e le informazioni di esistenza sono nate da una non esistenza infinita ed eterna. Durante questo processo l'intera creazione fu compressa in una singolarità infinitesimamente piccola che irruppe immediatamente e infinitamente in tutto il suo contenuto attuale, la cui illimitatezza esiste ancora come illimitatezza nel potenziale e nella realtà. Kirk Ouimet : Quale pensi che fosse lo stato delle cose prima del Big Bang? Essere saggio : affinché questa domanda sia possibile, l'interlocutore deve essere consapevole del tempo. Se non è così, non esisteva un "prima". Il Big Bang ha effettivamente avviato il tempo perché ciò che è venuto all'esistenza prima del Big Bang non esisteva in nessun tipo di costrutto "temporale" … eccetto solo modelli dinamici di energia assoluta e infinita. Kirk Ouimet : Allora cosa pensi che sia successo un secondo prima del Big Bang? Wise Being : 1 secondo prima del botto tutto era e non c'era tempo. Non c'era un secondo e non c'erano 0 secondi … non c'era niente perché quei concetti sono privi di significato al di fuori del contesto del tempo. Questo non è qualcosa che può essere compreso perché non ha alcun riferimento a ciò che costituiva un'unità di misura. Kirk Ouimet : Saresti in grado di trovare un'analogia c...
Continua a Leggere

The Reasonable Robot di Ryan Abbott esamina l’intersezione tra intelligenza artificiale (AI) e diritto

Mi è stata inviata una copia di " The Reasonable Robot " di Ryan Abbott dagli editori. È un libro interessante che discute alcune aree critiche del diritto in quanto potrebbero interagire con l'intelligenza artificiale (AI). Vale la pena leggere il libro, anche se è tutt'altro che perfetto. È un ottimo punto di discussione, un punto di partenza per iniziare a pensare all'intelligenza artificiale e alla legge. Software e diritto sono sempre stati un incrocio che mi ha interessato. All'alba dei tempi, uno dei miei documenti di alto livello durante la mia laurea era su come le leggi sul copyright, sui marchi e sui brevetti si applicano al software. Diciamo che la mia iniziale avversione per i brevetti per il software non è cambiata nel corso dei decenni. Quando sono stato contattato per la revisione del libro, ero quindi interessato a ciò che un avvocato ha da dire sull'intelligenza artificiale. Il libro stesso è più che altro, in termini di finzione, una novella. È un tomo sottile che è una buona lettura in quanto può avviare conversazioni sull'argomento. Ryan Abbott ha messo insieme alcune riflessioni sui problemi, alcune di queste idee sono quelle a cui sottoscrivo mentre altre non sono così ben pensate. Il primo capitolo è una buona introduzione all'intelligenza artificiale per quelle persone non tecniche che necessitano di una comprensione fondamentale per continuare con il resto del libro. Un cavillo che ho è che sarebbe stato meglio, nella sua definizione di AI, descrivere la differenza tra AI e AGI. L'intelligenza artificiale include le basi. L'intelligenza generale artificiale (AGI) è la ricerca, come suggerisce il nome, di un tipo di intelligenza artificiale che è più simile al pensiero umano, che è in grado di esaminare un'ampia varietà di problemi. Come ho detto a lungo, è facile definire l'IA (in realtà, AGI) come "tutto ciò che ancora non capiamo sull'intelligenza generale", con le sezioni che diventano la loro specialità mentre comprendiamo...
Continua a Leggere

L’intelligenza artificiale AI è una minaccia esistenziale

L'IA è una minaccia esistenziale? Quando si discute di Intelligenza Artificiale (AI), un dibattito comune è se l'IA sia una minaccia esistenziale. La risposta richiede la comprensione della tecnologia alla base del Machine Learning (ML) e il riconoscimento che gli esseri umani hanno la tendenza ad antropomorfizzare. Esploreremo due diversi tipi di AI, Artificial Narrow Intelligence (ANI) che è ora disponibile ed è motivo di preoccupazione, e la minaccia più comunemente associata alle interpretazioni apocalittiche di AI che è Artificial General Intelligence (AGI). Minacce di intelligenza ristretta artificiale Per capire cos'è ANI è sufficiente capire che ogni singola applicazione AI attualmente disponibile è una forma di ANI. Questi sono campi dell'IA che hanno un campo ristretto di specialità, ad esempio i veicoli autonomi usano l'IA che è progettata con l'unico scopo di spostare un veicolo dal punto A al punto B. Un altro tipo di ANI potrebbe essere un programma di scacchi ottimizzato per giocare scacchi, e anche se il programma di scacchi migliora continuamente se stesso utilizzando l' apprendimento per rinforzo , il programma di scacchi non sarà mai in grado di utilizzare un veicolo autonomo. Concentrandosi su qualunque operazione di cui è responsabile, i sistemi ANI non sono in grado di utilizzare l'apprendimento generalizzato per conquistare il mondo. Questa è la buona notizia; la cattiva notizia è che, con la sua dipendenza da un operatore umano, il sistema di intelligenza artificiale è suscettibile a dati distorti, errori umani o, peggio ancora, un operatore umano canaglia. Sorveglianza AI Potrebbe non esserci pericolo maggiore per l'umanità degli umani che usano l'IA per invadere la privacy e, in alcuni casi, l'uso della sorveglianza dell'IA per impedire completamente alle persone di muoversi liberamente. La Cina, la Russia e altre nazioni hanno approvato regolamenti durante COVID-19 per consentire loro di monitorare e controllare il movimento...
Continua a Leggere

Pronti per le cose difficili: intelligenza artificiale, spazio e scienza del clima

L'ultimo quarto del ventesimo secolo è stato il picco dell'innovazione tecnologica negli Stati Uniti. I Bell Labs di AT&T hanno inventato l'era dell'informazione con i transistor e le reti di dati e molte tecnologie di trasformazione tangenziali al suo core business: dalle celle solari al sistema operativo Unix ai laser. 1 Il Palo Alto Research Center (PARC) di Xerox ha determinato l'interazione uomo-computer con il mouse del computer iniziale, oltre alla stampa laser e alla rete Ethernet. 2 Negli anni '80 nacque la Pixar, creando la prima sequenza animata al computer in un film con nuove immagini generate al computer (CGI). 3,4 Allo stesso tempo Gates e Allen stavano hackerando qualcosa di speciale che presto rivoluzionò l'informatica, così come Wozniak e Jobs. 5,6 Durante il periodo di massimo splendore dell'invenzione nel mondo dei bit, la "corsa allo spazio" ha portato a massicce innovazioni e risultati nel mondo degli atomi: la competizione governativa tra Stati Uniti e Russia ha portato gli esseri umani sulla luna per la prima volta. L'ecosistema tecnologico statunitense per quei decenni è stato un volano di sorta 7 : le iniziative di ricerca finanziate dal governo hanno fornito innovazione di base sia nel mondo accademico che industriale, che ha alimentato un'economia che ha posizionato i laboratori di ricerca e sviluppo aziendali verso innovazioni interne e spinoff esterni, e letterali moonshots motivato le future generazioni di scienziati e ingegneri. La ricerca e sviluppo multidisciplinare e aperta, unita agli obiettivi di produzione, tutto sotto lo stesso tetto, è un modello di ricerca e sviluppo aziendale che ha guidato internamente il valore a lungo termine e ha sollevato esternamente tutte le barche con la marea. Lo slancio di questo modello di innovazione è proseguito all'inizio del secolo. Ad esempio, la DARPA Grand Challenge 8 nel 2003 ha messo in moto gli ingegneri di tutto il mondo per perseguire auto a guida autonoma. Oppure...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi