In un recente articolo pubblicato nell’ultima edizione di Harvard Business Review, si sottolinea che le persone potrebbero sviluppare una maggiore fiducia nell’intelligenza artificiale quando non ne comprendono completamente il funzionamento. Questo fenomeno sembra riscontrarsi anche tra i leader del settore tecnologico, incluso Apple, un’azienda rinomata per la sua attenzione all’immagine nella Silicon Valley.

Apple ha adottato una politica di segretezza riguardo alle proprie attività legate all’IA/ML, preferendo utilizzare il termine “apprendimento automatico” anziché “intelligenza artificiale”. Questa cautela ha permesso a Apple di enfatizzare i benefici pratici del machine learning per il suo pubblico incentrato sull’utente. Tim Cook, CEO di Apple, ha recentemente dichiarato in un’intervista a Good Morning America che l’azienda integra il machine learning nei suoi prodotti, ma le persone potrebbero non percepirlo necessariamente come intelligenza artificiale. Questa strategia ha dato a Apple un vantaggio competitivo rispetto a concorrenti come Microsoft e Google, che promuovono apertamente i loro prodotti basati sull’intelligenza artificiale ma possono incontrare resistenza da parte delle aziende.

OpenAI segue una strategia simile a quella di Apple in termini di segretezza. Il documento tecnico rilasciato dall’azienda è stato criticato per la sua mancanza di dettagli sui dati e sull’architettura del modello AI, ma questa riservatezza sembra funzionare a favore dell’azienda.

Uno studio condotto da ricercatori della Georgetown University, di Harvard e del MIT ha analizzato il comportamento dei dipendenti di rivenditori di moda di lusso statunitensi nel confronto tra algoritmi di intelligenza artificiale comprensibili e algoritmi “opachi”. Sorprendentemente, i dipendenti sembravano più inclini a seguire le raccomandazioni fornite dall’IA opaca, dimostrando che le persone mostrano una maggiore fiducia nei sistemi di intelligenza artificiale quando non ne conoscono completamente il funzionamento.

Il professor Timothy DeStefabo e il suo team hanno collaborato con l’azienda Tapestry, il cui valore ammonta a 6,7 miliardi di dollari e che è la società madre di marchi come Coach, Kate Spade e Stuart Weitzman. Questa collaborazione ha rivelato che l’utilizzo di un modello di previsione “a scatola nera” ha portato a spedizioni fino al 50% più vicine alle raccomandazioni, suggerendo una maggiore fiducia da parte degli utenti in questo tipo di modello.

Il motivo di questa preferenza per i modelli opachi sembra essere una forma di “sovraestimazione delle proprie capacità” da parte degli utenti, che credono di comprendere meglio i modelli di quanto non facciano effettivamente. Anche se non potevano spiegare completamente come funzionasse il modello, il coinvolgimento dei dipendenti nello sviluppo e nei test del modello ha aumentato la loro fiducia in esso.

In conclusione, le aziende tecnologiche dovrebbero concentrarsi su ciò di cui i clienti hanno bisogno e fornire soluzioni pratiche anziché vendere il know-how tecnologico. Questo approccio può aiutare a instillare fiducia nei sistemi di intelligenza artificiale anche quando il loro funzionamento è parzialmente oscuro per gli utenti.

Di Fantasy