La sparizione dell’Intelligenza artificiale
La navigazione dei dati richiede sempre più intelligenza artificiale per essere in grado di organizzare tali dati.
Tutte le cose finiscono, specialmente i cicli economici. Le persone che hanno registrato più di un paio di decenni nel settore dell’informatica sono particolarmente sintonizzati, perché i loro lavori e interessi tendono ad essere molto avanzati – l’incapacità di uno sviluppatore di software o di un gestore di informazioni di leggere il futuro, almeno in un senso generale, di solito significa che non durerà a lungo sul campo. Mentre i mercati entrano nelle rotazioni di questo ultimo dicembre, con il Dow Jones Industrial Average ora in calo del 16% rispetto ai massimi dell’anno, il pensiero che il party non finirà mai sta lasciando il posto all’idea che forse è ora di prendere le chiavi dell’auto salutare i padroni e spostarsi.
Comprensione del ciclo economico IT
Ho iniziato a scrivere queste previsioni di fine anno nel lontano 2003, in un momento in cui il “blogging” era ancora considerato una cosa nuova, e Google aveva appena strappato il mantello del re dei motori di ricerca ad Alta Vista. Quindici anni dopo, con la mia bambina di tre anni ora diretta al college e i miei capelli rossi e la barba ormai quasi bianca, il panorama è cambiato, la maggior parte dei grandi giocatori è cambiata (chi sapeva che alla fine Microsoft avrebbe migrato su Linux) e le parole d’ordine sono ora quasi una lingua diversa, ma allo stesso tempo, gli schemi sottostanti alla tecnologia rimangono molto prevedibili.
I cicli economici, ha notato la maggior parte degli economisti, seguono un modello da otto a dieci anni, di solito con un po ‘di oscillazione a metà strada, e si può argomentare in modo convincente che esiste un ciclo più ampio che raddoppia, tra diciotto e venti anni , dove le crisi economiche oscillano tra crash azionari (tipicamente accompagnati da disintegrazione di immobili commerciali) e crolli di mutui (o immobili residenziali). Questo non vuol dire che un crollo del mercato azionario non si verificherà in una recessione residenziale (cfr. 2008), ma piuttosto che questa volta i valori immobiliari saranno in gran parte vittime del collasso, ma non della causa.
I cicli IT sembrano avere circa un periodo di tre anni e mezzo, il che significa che in genere è possibile ottenere almeno due e forse tre “onde” IT durante un dato ciclo economico. Chiamiamo queste epoche tecnologiche. La prima epoca tecnologica in questo ciclo è stata l’ascesa del mobile in aumento dalle ceneri della fusione del 2008. Nel 2010, se non eri nei telefoni cellulari o app mobili, non stavi facendo soldi. Entro il 2012, i reclutatori IT hanno lanciato il curriculum “I have APP experience” nel cestino, perché, beh, nessuno ha più fatto soldi nello spazio mobile. In quel periodo, hai iniziato a parlare di BIG DATA. Era, beh, BIGGG! Gli sviluppatori Java hanno avuto una nuova prospettiva di vita in quanto l’ascesa di Hadoop ha reso improvvisamente nuovamente rilevante Java. Nel 2018, i due più grandi giocatori Hadoop rimasti si sono finalmente fusi, perché la domanda era crollata e il mercato non poteva più supportare un gioco di dominanza alfa e beta. Questa seconda epoca vide anche l’ascesa dei Bitcoin e delle Ico, con il Bitcoin che cade in modo spettacolare da un massimo di 20.000 dollari per bitcoin ai circa 3900 dollari di oggi (in mezzo al collasso completo della maggior parte delle altre ICO).
Questo ci porta al ciclo più recente, l’epoca Data Science / AI / Blockchain. Farò una previsione qui: il 2019 sarà l’anno in cui inizierai a vedere storie come “Who Killed the Data Scientist?”. I Big Data avevano bisogno di Big Data Scientists per analizzare tutti quei dati, perché l’imprenditore medio non riusciva a inserirli in un foglio di calcolo. Ciò ha portato molte aziende a spendere un sacco di soldi per tentare di attirare gli analisti di dati con un’infarinatura di R o Python per arrivare al lato aziendale, dove si sono seduti per due anni a giocherellare con i pollici perché hanno capito che non c’era davvero molto nei dati che queste aziende stavano gettando su di loro.
POTREBBE PIACERTI ANCHE
Blockchain è un tipico esempio di una tecnologia ancillare che spesso è alla base di un altro che viene riproposto. Blockchain era la tecnologia alla base di BitCoin, ed era un tentativo di risolvere un problema fondamentale: come si garantisce l’unicità in un mondo in cui qualsiasi dato può essere replicato. L’idea al centro era di federare le rivendicazioni di proprietà, in modo che ogni volta che si verificava una transazione, la transazione utilizzava un algoritmo per distribuire il reclamo tra più blockchain in modo tale da garantire che un record sarebbe considerato legittimo solo se i partecipanti condiviso una catena di provenienza comune. Ciò ha permesso di creare un libro mastro virtuale distribuito “verificabile”, sebbene al costo potenziale di dover ricorrere a meccanismi abbastanza complessi per generare chiavi completamente uniche.
Sfortunatamente, mentre un tale registro può essere visto come molto sicuro, il costo del calcolo di quelle chiavi si è dimostrato abbastanza oneroso: l’estrazione di numeri primi, come esempio, sta prendendo più energia del budget energetico di diversi paesi più piccoli. Inoltre, la realtà è che una soluzione più semplice a questo problema è semplicemente quella di limitare l’accesso a una rete in cui vengono effettuate tali transazioni, proprio come la rete ATM (per la maggior parte) chiusa ad Internet. I registri elettronici esistono da decenni (Microsoft Excel è essenzialmente un libro mastro elettronico glorificato) e registri distribuiti sicuri all’interno delle reti esistono già dagli anni ’70. Di conseguenza, molti dei progetti pilota a cui hanno assistito sia le banche che le start-up, pur non avendo esattamente fallito, non ha necessariamente mostrato un beneficio sufficiente per il dispendio energetico associato rispetto ad altre tecnologie. In altre parole, ciò che già esisteva era abbastanza buono per la maggior parte dei casi di utilizzo pratico.
Le aree finali che hanno visto la crescita più drammatica sono state nell’apprendimento automatico e nell’apprendimento approfondito, aree che rientrano nel dominio generale dell’intelligenza artificiale (AI). Va sottolineato che l’IA come categoria quasi inevitabilmente viene trattata verso la fine di un ciclo economico: queste tecnologie sono più lungimiranti, più rischiose in termini di speculazione e spesso possono avere un orizzonte temporale più lungo prima che siano suscettibili di portare risultati. L’ultimo passo verso le auto a guida autonoma è un buon esempio di questo – mentre alcune di queste auto hanno effettivamente raggiunto un mercato molto limitato, le persone all’interno dello spazio intelligente riconoscono in privato che ci potrebbe volere un altro decennio prima che questi sforzi vedano l’ adozione in massa. Allo stesso modo, le IA di riconoscimento vocale – come Siri o Alexa – stanno finalmente entrando nella produzione generale ora, dopo essere state considerate “AI” nell’ultimo ciclo economico. Non sono ancora pervasive, né senza dolori crescenti, ma come tecnologia, sono notevolmente più mature rispetto ai primi prototipi visti da dieci a dodici anni fa.
Il mercato azionario in generale non è l’economia, ma di solito è in correlazione con l’attività economica da sei a otto mesi lungo la strada. Il Nasdaq pesante in particolare è stato colpito duramente negli ultimi tempi, probabilmente perché gli investitori non vedono nulla nemmeno all’orizzonte che promette di premiare gli investimenti e perché ci sono molte aziende nello spazio dell’IA, giochi, elettronica personale, social media, e così via che non sembrano davvero rivoluzionari.
C’è anche una relazione mutevole che le persone hanno con il software e l’hardware che danno forma a queste aspettative. Il software, in generale, è passato dall’essere un centro di profitto ad essere una merce, e ogni dato servizio che può essere consegnato elettronicamente molto probabilmente viene consegnato elettronicamente. Laddove il software è redditizio, è sempre più probabile che siano modelli, modelli, configurazioni, estensioni di giochi o libri multimediali, audiolibri, film e così via.
L’hardware è simile. I telefoni cellulari – in realtà, i computer portatili – continuano a crescere come la principale piattaforma di elaborazione per tutto, dai giochi agli acquisti, alla gestione delle attività quotidiane. La rivoluzione attesa nel wearable non si è mai concretizzata, salvo in applicazioni molto specializzate (la polizia cinese ora usa occhiali intelligenti con riconoscimento facciale per identificare potenziali scofflaw). I robot, previsti all’inizio del decennio, sono la prossima grande cosasono apparsi davvero, ma la maggior parte esiste molto sullo sfondo. In effetti, forse l’innovazione hardware veramente innovativa negli ultimi dieci anni è stata l’ascesa dei droni, che possono essere pensati come telefoni cellulari con rotori, e anche lì l’effettiva adozione di droni è stata sorprendentemente minima, poiché le persone si oppongono all’odiosità di robot volanti rumorosi e invasivi.
La maturazione della rivoluzione IT
Questi sono tutti segni di un ecosistema in via di maturazione. I progressi sono passati dall’essere di natura qualitativa – l’introduzione del desktop publishing, che ha avuto un impatto radicale su molte industrie, in gran parte quantitativo e incrementale, con un ritorno sull’investimento decrescente. I cambiamenti stanno diventando molto più sottili – processori di parole che suggeriscono frasi e frasi intere durante la digitazione, ricerche che sembrano essere sempre più accurate e incredibilmente accurate nell’aiutarti a trovare ciò che stai cercando, un software per creare mondi realistici, tracciando (e spesso coworking) storie, sintetizzatori per la creazione di musica aumentante.
Ciò ha implicazioni interessanti per il prossimo decennio. Il principio di Pareto afferma che, in molti casi, circa l’80% degli effetti di una situazione deriva dal 20% delle cause. Questo motto è stato adattato a molti scenari diversi: il 20% dei clienti acquista l’80% dei prodotti più comuni. Tuttavia, sia nel campo del software commerciale che in quello dell’hardware, questo può essere rideterminato in quanto l’80% delle esigenze per un dato insieme di servizi o prodotti può essere soddisfatto di circa il 20% delle opzioni disponibili. Un corollario di questo è quello del restante 20% dei bisogni che non sono soddisfatti da quel 20%, un ulteriore 16% risolverà tutto ma circa il 4% dei problemi e così via. Una simile legge sulla potenza produce una lunga coda, ma si allontana troppo da quella coda e il ritorno sull’investimento non vale la pena di fare quell’investimento. Questa è approssimativamente la situazione che noi
Vedrai questa evoluzione nei veicoli a guida autonoma. La mia previsione è che la maggior parte delle persone non sarà disposta a fidarsi di un veicolo veramente autonomo per almeno una generazione. Invece, la guida autonoma avverrà in modo molto più sottile. La tua auto ti chiederà quale sia la tua destinazione e disegnerà la mappa. Uscirai dal tuo vialetto, ma a un certo punto un’opzione per l’auto-back verrà visualizzata sul cruscotto e quando si preme un pulsante sul volante, lo farà. Guidi per un po ‘nel tuo vicinato, e alla fine vedrai un indicatore che indica che l’auto può entrare in modalità crociera se lo desideri, e quindi assume la guida una volta che sali in autostrada. Sei ancora al volante, sempre nominalmente sotto controllo, ma durante tutto il processo di passaggio dal punto a al punto b, la macchina ti assisterà. Una buona intelligenza artificiale sarà in grado di determinare quando qualcuno vorrà prendere il controllo, una IA migliore sarà in grado di valutare quando qualcuno non dovrebbe essere al volante e informerà la polizia o semplicemente subentrerà. Nella maggior parte dei casi, non sarà un problema.
Questo è il livello successivo di intelligenza artificiale: il giudizio di un’IA migliorerà, in modo discreto e discreto, sia per l’accumulo di quantità sempre maggiori di materiale di apprendimento sia per gli aggiornamenti periodici negli algoritmi e nelle capacità di back-end. Passeranno da sistemi che agiscono su semplici stimoli a sistemi che segnano raccomandazioni: “Hai pensato di farlo invece, Kurt?” “Ho trovato una nuova band che penso ti possa piacere?” “L’ultima volta che hai mangiato le cipolle fritte hai avuto un mal di stomaco? Sei sicuro di volere gli anelli di cipolla?” Queste non sono semplici domande: richiedono una storia da confrontare, una consapevolezza di ciò che sta accadendo (contesto) e la capacità di distinguere tra l’essere utili e l’essere odiosi. Richiede anche velocità di elaborazione e larghezza di banda su un livello piuttosto fenomenale.
Ciò indica il futuro immediato, un futuro che ha analogie negli anni ’70 e nei primi anni 2000. Si può sostenere che stiamo raggiungendo un plateau di larghezza di banda. In termini semplici, un plateau della larghezza di banda si verifica quando l’infrastruttura necessaria per stimolare l’innovazione (in genere maggiore potenza di elaborazione o larghezza di banda) non è sufficientemente elevata per l’innovazione innovativa. I veicoli automatizzati hanno bisogno di molta potenza di elaborazione, soprattutto locale, per poter prendere decisioni rapide in un mondo estremamente complesso. Questo non è un problema tecnologico (almeno non del tutto): è un problema di risorse e infrastrutture.
Negli anni ’70, la tecnologia attraversò un periodo chiamato AI Winter, in cui l’interesse per l’intelligenza artificiale si esaurì quasi completamente. Ciò è avvenuto in parte a causa della consapevolezza che molte delle previsioni che erano state fatte sul futuro dell’intelligenza artificiale richiedevano una comprensione più profonda del funzionamento effettivo dell’intelligence stessa, nonché della mancanza di infrastrutture reali per supportare le cose a quel livello. Il blocco delle dot com avvenne in parte perché la larghezza di banda disponibile era insufficiente per ciò che era previsto all’epoca, e ancora una volta, l’infrastruttura era troppo primitiva per accogliere quelle innovazioni. Molte delle cose che erano previste come effettivamente possibili nel 2000 impiegavano dai quindici ai diciotto anni per raggiungere la fruizione,
Ogni volta, mentre la realtà ci raggiungeva, l’hype che era entrato in “IA” si trasformava in disillusione.
Questa volta è diverso? Una specie di. L’elaborazione del linguaggio naturale è maturata a un livello in cui è ampiamente possibile determinare rapidamente l’intento di un oratore umano. I chip di elaborazione del segnale digitale sono sempre più in grado di gestire il processo di identificazione di una serie di classi di cose in un’immagine (e sempre più nel video), e da ciò l’utilizzo di queste informazioni per creare modelli interni che rappresentano tali elementi. Stiamo iniziando a capire perché le reti neurali funzionano effettivamente come loro, e questo a sua volta ha stimolato altre aree di indagine mentre entriamo nel regno della meta-cognizione. Questi sono tutti i precursori necessari per le IA generali limitate, ma non sono, di per sé sufficienti.
Dalla tecnologia al cambiamento sociale
Quindi cosa aspettarsi nello spazio AI nel 2019? Il consolidamento, i fallimenti e l’intelligenza artificiale che si allontanano per un po ‘dalle prime pagine probabilmente faranno parte di esso. Il finanziamento dell’intelligenza artificiale non si fermerà del tutto – pensate AI Late Fall piuttosto che un AI Winter in piena regola, dove il paesaggio sarà triste e grigio, ma non completamente ghiacciato. Questa non è in realtà una brutta cosa. Un simile cambiamento sposterà la priorità dell’IA dai fantastici moonshot a ciò che è appena sufficiente per soddisfare una necessità di utilizzo dell’uso più strettamente vincolata. Riduce il numero di “ricercatori di intelligenza artificiale” che hanno poca esperienza ma sono stati attratti da alti stipendi, fornisce uno stress test per le tecnologie vitali e possono rallentare la corsa a ottenere prodotti immaturi fuori dalla porta. Un simile “respiro” ha seguito la recessione tecnologica del 2000, dare alle tecnologie mobili un cambiamento per maturare e risolvere la contesa degli standard. Nel momento in cui il mercato si è ripreso, è probabile che l’adozione su dispositivi mobili sia stata accelerata rispetto a dove sarebbe stato se il “inverno” tecnologico non avesse avuto luogo.
Oltre a ciò, ci sono diverse aree chiave da osservare. Lo scambio semantico e di metadati, specialmente nell’arena dei cataloghi di dati, sembra essere una delle prossime grandi spinte. Ciò utilizza un modello cognitivo in via di maturazione per gestire il compito spesso complesso di mappatura tra più database distinti, rendendo in effetti possibile creare spazi dati unificati a livello aziendale, rendendo possibile gestire il flusso di informazioni mentre si sposta in tutto il ciclo di vita dei dati all’interno delle organizzazioni. A lungo termine, ciò si tradurrà in una radicale trasformazione delle imprese dall’approccio della gerarchia di comando e controllo che ha categorizzato la maggior parte del 20 ° secolo e verso un modello più basato sugli eventi in cui i cambiamenti di stato dei dati basati su vari input possono automatizzare gran parte del gestione quotidiana dei requisiti di produzione e distribuzione.
Il riconoscimento entità in tempo reale e la sintesi del modello – in cui un computer è in grado di identificare le cose in un ambiente e modellare avatar attorno a loro – sta diventando sempre più possibile sulla base di sistemi di riconoscimento alla guida. I contratti intelligenti, che utilizzano gran parte della ricerca proveniente dalla semantica e dalla blockchain, sostituiranno i contratti tradizionali. Tali contratti possono tracciare automaticamente le transazioni nel tempo, determinare la conformità a tali contratti e possono essere utilizzati con sistemi di pagamento automatici e micropagamenti per facilitare meglio le reti di sensori.
Un futuro simile è nei lavori per i droni, da quelli piccoli delle dimensioni di bug ai camion autonomi, ai treni e naturalmente ai velivoli senza pilota (o UAV) come sono noti nel settore. La maggior parte dei droni sono semi-autonomi – possono essere controllati manualmente, ma entro il 2020 la maggior parte avrà un comportamento evitante al minimo integrato e in molti casi è in grado di navigare tra due punti senza l’intervento umano, grazie a sofisticate IA. Un periodo di inattività consentirà ai comuni e alle agenzie di regolamentazione di stabilire politiche ragionevoli in materia di droni a livello sistematico, piuttosto che caso per caso.
L’IoT ha attraversato un ciclo boom / busto, a questo punto, inclusa una fase di commercializzazione minima in cui si è scoperto che la maggior parte dei mercati “evidenti” per l’IoT aveva una trazione relativamente piccola (abbiamo davvero bisogno di un altro termostato centrale “intelligente”, tostapane intelligente o caffettiera programmata?). Le eccezioni, come la pletora di assistenti AI attivati dalla voce come Siri, Alexa, Hi Google e Cortana, sono sotto molti aspetti una tecnologia precursore necessaria, stabilizzando il campo di gioco (e le interfacce) per consolidare questi IoT. Uno o due di questi (la mia scommessa su Alexa in questa fase) diventerà probabilmente un market maker nei prossimi due anni, nella misura in cui le API IoT si stabilizzeranno probabilmente sul set di core API di Alexa. Questo, a sua volta, vedrà una corsa verso i dispositivi IoT “Alexa Aware”,
Mi chiedo anche quando l’industria automobilistica sarà finalmente standardizzata sulle unità di attracco. L’attivazione di uno stereo o di un lettore video IoT richiede attualmente la rimozione della parte anteriore attraverso l’unità console centrale. Standardizzando su un singolo contenitore intercambiabile, una persona può sostituire un componente IoT con un altro accedendo a un codice di blocco, estraendo la vecchia unità, inserendo il nuovo e inserendo un nuovo codice di blocco per fissarlo in posizione. Sebbene non abbia nulla (molto) a che fare con l’intelligenza artificiale, la standardizzazione del settore dei componenti è una parte molto importante dell’adozione di IoT.
Per concludere, l’IA nel 2019 e oltre comincerà a scomparire dalle prime pagine e invece diventerà semplicemente un’infrastruttura aumentativa – rendendo più facile localizzare le cose, più facile controllare le cose da remoto, più facile da analizzare o creare. La rivoluzione dei robot è già in corso, ma è difficile da vedere perché questi robot non sembrano robot: sembrano telecamere per smartphone o droni o caffettiere o automobili. L’intelligenza distribuita è tutt’altro che ovvia – la maggior parte è nascosta nelle server farm dall’altra parte di una connessione di servizi Web.
Le implicazioni di ciò sono quindi abbastanza ovvie: anche il 2030 potrebbe non sembrare, in effetti, così diverso da oggi sulla superficie. Ci saranno più macchine senza nessuno al volante, ma non molto di più, anche se molto di più potrebbe non essere effettivamente alla guida anche quando si è al volante. Lo smart-phone sarà ancora il dispositivo di calcolo mobile dominante, ma avrà circa quindici volte la corrente potenza di calcolo. Le persone continueranno a comprare generi alimentari nei negozi, ma saranno più piccoli e vuoti e le corsie di check-out potrebbero essere completamente scomparse. Molte più persone riceveranno la loro spesa, comunque, e l’auto-dispensa, essenzialmente un frigorifero esterno bloccato elettronicamente, sarà un luogo comune. La TV, come sappiamo, sarà morta, le società via cavo in ultima analisi assorbite in società esclusivamente Internet,
Incartare
L’ironia è che i cambiamenti più evidenti non saranno nella tecnologia, ma nell’adattamento sociale a quella tecnologia. Per molti aspetti, siamo più vicini alla fine dell’ultima rivoluzione tecnologica rispetto all’inizio, ma le onde d’urto di questi cambiamenti stanno davvero iniziando solo ora a colpire le fondamenta strutturali della nostra società. Come definiamo una fonte di autorità quando il requisito per diventarne uno (ad esempio, pubblicare un sito Web) dipende dalla capacità di generare contenuti, indipendentemente da quanto siano spuri o spuri? Cosa facciamo quando la tecnologia raggiunge uno stadio in cui il lavoro significativo, che di solito arriva al lavoro che genera abbastanza denaro per pagare le bollette, diventa un privilegio disponibile solo per i più altamente qualificati? Come possiamo educare i nostri figli quando la nostra attuale strategia educativa – insegnando i fatti in maniera strutturata – viene rimpiazzata da un processo educativo just-in-time in cui una persona aumenta le informazioni quando ne ha bisogno? Cosa succede a quelle persone che non riescono ad adattarsi abbastanza velocemente? Come si creano coalizioni di governo quando tutti esistono nel proprio silo tematico, incapaci di costruire un consenso anche su quali siano i veri problemi, per non parlare di stabilire delle priorità?
Nessuno di questi è un problema che l’intelligenza artificiale, da sola, sarà in grado di risolvere. L’intelligenza artificiale può aiutarci a modellare gli scenari, ad esplorare le potenziali conseguenze di prendere o non prendere certe azioni, ma il processo di prendere le decisioni per prendere quelle azioni poggia saldamente in mani umane. I prossimi due decenni saranno probabilmente controversi per questo.