Il primo compito di molti algoritmi di intelligenza artificiale (AI) è esaminare i dati e trovare la migliore classificazione. Un’auto a guida autonoma, ad esempio, può acquisire l’immagine di un segnale stradale; l’algoritmo di classificazione deve interpretare il segnale stradale leggendo eventuali parole e confrontandolo con un elenco di forme e dimensioni note. Un telefono deve ascoltare un suono e determinare se si tratta di uno dei suoi comandi di sveglia (“Alexa”, “Siri”, “Ehi Google”).
Il lavoro di classificazione a volte è l’obiettivo finale di un algoritmo. Molti data scientist utilizzano algoritmi di intelligenza artificiale per preelaborare i propri dati e assegnare categorie. Osservare semplicemente il mondo e registrare ciò che sta accadendo è spesso il compito principale. Le telecamere di sicurezza, ad esempio, sono ora programmate per rilevare determinate attività che potrebbero essere sospette.
Incredibili benefici per la salute dell’ananas
In molti casi, la classificazione è solo il primo passo di un algoritmo più ampio. L’ auto a guida autonoma utilizzerà la classificazione di un segnale stradale per prendere decisioni su fermarsi o svoltare. Un aspirapolvere intelligente può controllare animali domestici o bambini e si spegne o si spegne se ne viene rilevato uno.
Quali sono i tipi di algoritmi di classificazione utilizzati nell’intelligenza artificiale?
Esiste una vasta gamma di algoritmi che variano tra approcci generali in grado di addestrarsi a rispondere a qualsiasi tipo di domanda e anche applicazioni mirate che funzionano su domini particolari. Ad esempio, gli algoritmi di riconoscimento ottico dei caratteri vengono utilizzati per convertire le scansioni cartacee in documenti digitali classificando ogni lettera nell’immagine.
Altri algoritmi sono progettati per funzionare con dati numerici. Possono dividere la gamma di potenziali risposte in sezioni che rappresentano ogni possibile risposta potenziale. Un semplice algoritmo per classificare gli animali domestici come cani o criceti può avere successo, esaminando solo il peso. Qualsiasi animale domestico di peso superiore a una libbra sarebbe classificato come cane e chiunque pesasse meno di una libbra sarebbe classificato come criceto.
Altri algoritmi sono più elaborati e si basano su modelli multistadio con elaborati circuiti di feedback. Alcuni algoritmi di apprendimento automatico simulano reti di neuroni e spesso contengono migliaia, milioni o addirittura miliardi di neuroni simulati. Ogni neurone simulato è sintonizzato individualmente per reagire ai dati e produrre una risposta. Queste risposte dai singoli neuroni vengono spesso inserite in un altro stadio di neuroni simulati e l’intera rete produce la classificazione mentre le singole risposte fluiscono attraverso la rete.
[Correlato: questo avvocato AI afferma che le aziende hanno bisogno di un chief AI officer — pronto ]
Come vengono addestrati gli algoritmi di classificazione?
Alcuni semplici modelli per la classificazione possono essere addestrati o programmati da un essere umano che comprende il dominio. L’esempio sopra dell’algoritmo che può determinare se un animale domestico è un cane o un criceto è molto semplice e la conoscenza del dominio umano è facile da trasferire al modello.
Tuttavia, la maggior parte degli algoritmi di apprendimento automatico non sono così semplici e l’addestramento richiede l’esecuzione di un altro algoritmo. È comune per gli scienziati dell’apprendimento automatico creare un sottoinsieme di dati di addestramento. Questo viene inserito nell’algoritmo di addestramento, con la ricerca dei migliori parametri e impostazioni per le parti del modello. Nel nostro semplice esempio di distinzione tra cani e criceti, la soglia di una sterlina è l’unico parametro in quel modello. In pratica, molti algoritmi di apprendimento automatico impostano milioni o addirittura miliardi di parametri nel processo di addestramento.
Un passaggio comune nel processo è mettere da parte alcuni sottoinsiemi del set di dati di addestramento iniziale per valutare la qualità dei risultati. Questi dati vengono mantenuti separati dal processo di formazione come gruppo di controllo. Quando il modello viene testato sui dati segregati, non c’è pericolo che qualche pregiudizio imprevisto si sia insinuato nel modello.
Inoltre, alcuni progetti richiedono un’attenta pre-classificazione e pulizia dei dati, che a volte viene chiamata “incorporamento”. Questo standardizza i dati e introduce una struttura semplice che può semplificare il processo. Alcuni numeri, ad esempio, possono essere arrotondati. Alcune parole possono essere convertite in tutte le lettere maiuscole. Occasionalmente, per eseguire questo passaggio viene utilizzato un algoritmo di classificazione separato.
Quali sono alcuni degli algoritmi di classificazione più noti?
Gli algoritmi di classificazione utilizzati nell’IA sono un misto di analisi statistica e algebra, organizzati in diagrammi di flusso e alberi decisionali. Alcuni approcci precedono l’idea di creare intelligenza artificiale, emergendo da un campo di statistica, calcolo e analisi numerica.
Molti modelli di intelligenza artificiale utilizzano una combinazione di diversi approcci e algoritmi. In effetti, la scelta dell’algoritmo può essere un po’ un’arte. Gli scienziati hanno la sensazione di quali approcci potrebbero funzionare meglio e possono provare numerose combinazioni fino a trovare una soluzione predittiva.
Alcuni degli approcci più noti sono:
Regressione semplice: diverse buone tecniche possono adattare una linea o un polinomio a un insieme di punti dati. Ridurre al minimo il quadrato della distanza è una tecnica comune. Una volta tracciata questa linea, è possibile impostare una soglia e mappare i possibili risultati della classificazione a porzioni della linea.
Regressione logistica: utilizza anche tecniche di adattamento delle curve ma con curve più complesse, spesso funzioni sigmoidali. Il grande salto nel sigma può essere regolato per fornire una buona soglia tra le opzioni di classificazione.
Bayesiano: un’altra opzione consiste nell’utilizzare le curve a campana, spesso chiamate funzioni bayesiane, per abbinare i dati. Funziona bene per i cluster. Diverse curve a campana possono adattarsi a diversi cluster e la soglia migliore può essere impostata dalle loro intersezioni.
Supporta macchine vettoriali: è simile all’adattamento di una linea ma la estende in più dimensioni. Un piano o una raccolta di piani viene posizionato per massimizzare la distanza da tutti i punti. Questi piani diventano la soglia che separa lo spazio.
Albero decisionale: alcuni problemi sono abbastanza complessi da rendere inefficace una singola regressione o soglia. Un albero decisionale crea un diagramma di flusso o un albero con più decisioni in ogni passaggio. In molti casi, in ogni fase vengono utilizzate variabili diverse. Il processo è migliore per set di dati complessi in cui variabili diverse si comportano in modo molto diverso, ad esempio quando alcune variabili sono booleane e altre numeriche.
Foresta casuale: trovare la migliore raccolta di decisioni per l’albero migliore può essere difficile perché le opzioni possibili aumentano rapidamente con la complessità del set di dati. La foresta casuale costruisce molti alberi potenziali e li mette alla prova tutti.
Vicino più vicino: invece di tagliare un set di dati con linee o piani, l’approccio vicino più vicino cerca punti definitivi nello spazio. I nuovi punti dati vengono classificati trovando il punto definitivo più vicino nello spazio. In alcuni casi, gli algoritmi trovano una serie di pesi per i vari campi di dati per regolare il modo in cui viene calcolata la distanza.
Reti neurali: si tratta di algoritmi di intelligenza artificiale più elaborati che simulano raccolte di neuroni disposti in una rete. Ogni neurone può prendere una decisione semplice in base ai suoi input. Le decisioni fluiscono attraverso la rete fino a quando non viene stilata una classifica finale.
In che modo le grandi aziende stanno attaccando i sistemi di classificazione con l’intelligenza artificiale?
Tutte le principali società cloud mantengono solidi programmi per lo sviluppo e la commercializzazione di applicazioni di intelligenza artificiale. Ciascuno può facilmente affrontare i problemi di classificazione utilizzando i propri algoritmi integrati. Aiutare i clienti a ordinare ed etichettare i dati è una delle prime e migliori applicazioni per i loro strumenti di intelligenza artificiale.
SageMaker di Amazon, ad esempio, supporta molti dei migliori algoritmi di classificazione, inclusi il vicino più vicino e la regressione . La sua documentazione include una varietà di esempi per etichettare dati di testo e immagini utilizzando tutti gli algoritmi possibili. I modelli possono anche essere implementati con molti prodotti, come DeepLens , una videocamera completamente programmabile in grado di gestire internamente alcuni problemi di classificazione.
Gli strumenti di intelligenza artificiale di Google come VertexAI possono essere tutti applicati direttamente all’etichettatura dei dati. Lo strumento AutoML include una serie di procedure predefinite e automatizzate per la classificazione di immagini o dati testuali. Esistono anche diversi strumenti e API specializzati progettati per alcuni dei casi d’uso più importanti. Lo strumento Cloud Data Loss Prevention è ottimizzato per rilevare informazioni personali sensibili e quindi oscurarle. L’ API Cloud Natural Language ha diversi modelli pre-addestrati per attività come l’analisi del sentiment o la classificazione dei contenuti.
Azure di Microsoft offre un’ampia gamma di strumenti che iniziano con il supporto della sperimentazione di base e terminano con applicazioni predefinite per importanti attività comuni. I primi lavori sono supportati con i notebook Jupyter, che hanno un’interfaccia drag-and-drop. I servizi di intelligenza artificiale applicati di Azure dispongono di strumenti che ottimizzano lavori come il riconoscimento dei moduli e la digitalizzazione , l’analisi video per lavori come il miglioramento della sicurezza attraverso la sorveglianza e l’ analizzatore di parametri per il rilevamento delle anomalie nei file di registro.
I prodotti IBM supportano la classificazione tramite piattaforme di data science come SPSS e algoritmi di IA pura. Dopo la sperimentazione e l’esplorazione di base, IBM supporta anche una serie di strumenti mirati come lo strumento Security Discovery and Classify , che può aiutare a ridurre i siti Web e prevenire la perdita di dati. Lo strumento Watson Natural Language Understanding ora include una funzionalità per la creazione di modelli di classificazione per il testo con pochi passaggi.
La linea di prodotti Oracle include anche un’ampia combinazione di strumenti per la sperimentazione di base, nonché sistemi mirati che affrontano compiti particolari. Lo strumento di gestione del capitale umano nel loro cloud supporta i dipartimenti delle risorse umane e offre alcune funzionalità basate sull’intelligenza artificiale per classificare i dipendenti in base alle loro competenze con uno Skills Engine e uno Skills Nexus . I servizi di intelligenza artificiale hanno molti modelli predefiniti per l’analisi del parlato, del testo e delle immagini.
In che modo le startup si stanno avvicinando alla classificazione dell’intelligenza artificiale?
Anche le startup che stanno risolvendo i problemi di classificazione con algoritmi di intelligenza artificiale si rivolgono a un’ampia gamma di mercati. Alcuni vogliono creare strumenti di base che possano essere implementati da ricercatori, data scientist e aziende. Stanno esplorando alcuni degli approcci e delle strade più nuovi.
Molte aziende stanno anche applicando gli algoritmi direttamente a nicchie o applicazioni specifiche. Si stanno concentrando sull’adattamento degli approcci alle particolari idiosincrasie del dominio personalizzando la raccolta, la pulizia e l’inclusione dei dati in un set di formazione. Molti di questi non si vendono come società di intelligenza artificiale, anche se gran parte del valore che creano deriva dagli algoritmi.
Affirm , ad esempio, è un’azienda fintech che offre prestiti agli acquirenti. La sua carta “Debit+” offre prestiti APR bassi dello 0% per articoli particolari in negozi sponsor come Lowe’s o Peloton. Gli altri acquisti vengono cancellati come normali transazioni di addebito. Gli algoritmi di intelligenza artificiale lavorano in background per classificare i clienti e i loro acquisti.
Clarifai offre un’ampia gamma di potenti pipeline di classificazione low-code e no-code per l’elaborazione di testo, audio, immagini e video. Lo strumento Flare Edge, ad esempio, è progettato per distribuire i modelli di classificazione a telecamere e sensori su Internet per velocizzare la classificazione eliminando la necessità di inviare le immagini a un data center.
Symbl AI funziona con testo e audio non strutturati per rilevare gli argomenti di conversazione e classificarli in base al tono e alle intenzioni. Si integra con sorgenti video, telefonia, testo e streaming.
Vectra AI analizza le reti in locale e nei data center per classificare le minacce e identificare potenziali falle di sicurezza. Controlla le attività pericolose come l’esfiltrazione di dati su larga scala o la crittografia per identificare le minacce più pericolose.
C’è qualcosa che l’intelligenza artificiale non può classificare?
Gli scienziati hanno un’ampia gamma di possibili funzioni di classificazione e spesso riescono a trovare una buona corrispondenza con dati di addestramento sufficienti. I problemi spesso compaiono in seguito, quando i nuovi dati formano uno schema diverso dai dati di addestramento originali. Anche piccoli cambiamenti possono essere significativi perché a volte i modelli sono sensibili a piccoli cambiamenti nei valori. Alcune implementazioni utilizzano deliberatamente un meccanismo di feedback per riqualificare il modello nel tempo.
È importante notare che possono sorgere problemi quando il set di dati include schemi involontari. Una difficoltà comune con i set di dati visivi deriva dall’illuminazione dei soggetti. Se un set di allenamento è pieno di foto scattate all’interno, potrebbe non funzionare correttamente quando le nuove immagini provengono dall’esterno o al tramonto, ad esempio. Eliminare queste sottili differenze può essere una sfida perché gli esseri umani potrebbero non esserne consapevoli. L’assemblaggio di set di formazione sempre più grandi è un approccio comune per cercare di garantire che tutte le possibili combinazioni si riflettano nel set di dati.
Altri problemi possono sorgere quando i sensori rilevano differenze molto sottili che non sono ovvie per gli scienziati. Ad esempio, la pelle umana diventa spesso leggermente più rossa nei momenti in cui il sangue viene pompato attraverso di essa. Alcuni usano solo una fotocamera per rilevare e misurare il polso di qualcuno. La quantità di questo rossore, tuttavia, è raramente sufficiente per essere vista dagli occhi umani. Algoritmi di apprendimento automatico ben funzionanti possono evidenziare sottili differenze come questa per l’essere umano, ma a volte l’essere umano lo scarta come rumore.