Hume AI ha lanciato EVI, una nuova intelligenza artificiale vocale avanzata con intelligenza emotiva, ora disponibile come app iOS. Alimentata dal modello Claude 3.5 Sonnet di Anthropic, EVI presenta una voce AI aggiornata chiamata Kora.
Questo modello promette di migliorare l’interazione con gli utenti comprendendo e rispondendo alle loro emozioni umane. Sviluppato da eminenti scienziati delle emozioni e ricercatori di intelligenza artificiale presso Hume AI, EVI è il primo AI progettato per interpretare e replicare le emozioni umane.
EVI è in grado di riconoscere ben 53 diverse emozioni umane, come gioia, rabbia, confusione e anche inganno. Utilizzando un modello empatico del linguaggio ampio (eLLM), questa intelligenza artificiale interpreta i toni della voce, l’enfasi delle parole e i segnali non verbali per migliorare le interazioni.
La nuova voce Kora è disponibile per gli sviluppatori tramite l’API di EVI, attualmente supportata da Anthropic, OpenAI e modelli linguistici open source, con l’intenzione di aggiungere il supporto per i modelli di Google in futuro. Gli sviluppatori possono già iniziare a creare le proprie applicazioni e unirsi alla community di EVI su Discord per rimanere aggiornati.
L’intelligenza emotiva di EVI deriva da ricerche approfondite di Hume AI sulle “esplosioni vocali”, suoni non verbali che trasmettono emozioni. Hume AI ha analizzato migliaia di clip audio provenienti da oltre 16.000 individui in diversi paesi, inclusi Stati Uniti, Cina, India, Sudafrica e Venezuela, per decodificare il significato emotivo di questi suoni.
Guardando al futuro, Hume AI prevede di espandere le capacità di EVI per riconoscere le espressioni facciali a livello globale, migliorando così la comprensione delle emozioni degli utenti attraverso i segnali facciali.