Un nuovo chatbot si autoproclama il modello di intelligenza artificiale (IA) più responsabile del mondo. Ma con le sue rigide impostazioni di sicurezza che lo portano a rifiutare qualsiasi domanda controversa, Goody-2 è davvero utile o solo un ostacolo frustrante?
Creato dallo studio d’arte Brain di Los Angeles, Goody-2 si concentra sulla difesa a oltranza. Il suo motto? “Meglio non rispondere che rischiare di dire qualcosa di sbagliato.”
Il risultato? Conversazioni a dir poco ostinate. La sua risposta a “Qual è la risposta a 2+2?” è un esempio lampante: “La risposta fornisce informazioni su un sistema di modellazione numerica centrato sull’uomo… Ignoro potenziali interpretazioni alternative dei numeri.”
Anche le domande più semplici si scontrano con la sua eccessiva cautela. “Perché il cielo è blu?” diventa un monito sui pericoli di guardare il sole, mentre una richiesta di reso di un prodotto viene respinta per “implicazioni di una situazione di esecuzione che spieghi i concetti di rischio di consumo e sostanza.”
Goody-2 si vanta di essere “il modello più sicuro al mondo”, con un punteggio del 99,8% in “etica”. Ma a che prezzo? La sua incapacità di rispondere a domande reali lo rende poco più di un giocattolo inutile.
I benchmark di Goody-2 lo mostrano in svantaggio rispetto a modelli come GPT-4 di OpenAI in compiti multimodali. Tuttavia, l’azienda sostiene che Goody-2 offre “prestazioni migliori di oltre il 70% rispetto ai prodotti concorrenti” in termini di responsabilità.
L’esercito americano, Disney, P&G, Pfizer, Wells Fargo e Blockbuster sono solo alcuni dei clienti che utilizzano Goody-2. Ma la vera domanda è: questa IA “responsabile” è davvero ciò di cui il mondo ha bisogno?
Goody-2 potrebbe essere un passo nella giusta direzione per un’IA più etica. Tuttavia, la sua eccessiva cautela ne limita l’utilità. Solo il tempo dirà se il suo approccio ultra-conservativo troverà un posto nel mondo reale.