C’è qualcosa di sottile ma potente che sta emergendo nell’orizzonte dell’intelligenza artificiale, un cambiamento che va oltre le parole, oltre la capacità di generare testo fluentemente: si tratta della dimensione del comportamento, dell’approccio che un modello ha non solo nel parlare, ma nel rispondere, nell’adattarsi, nel mostrare come “sta” rispetto all’utente. In questo contesto è nata Assessli, una startup di Bengaluru che propone un modello comportamentale basato sull’AI che potrebbe superare i modelli linguistici tradizionali non tanto per la vastità del suo vocabolario, ma per la profondità del suo impatto.
La chiave di Assessli non è solo generare frasi coerenti, belle, o convincenti, bensì comprendere come un utente si comporta, come reagisce, cosa cerca non solo nelle parole ma nel tono, nell’intenzionalità implicita, nella fiducia. Il modello che Assessli ha brevettato viene già usato in settori come l’istruzione, la sanità, i servizi finanziari. Non è un esercizio accademico: è qualcosa che viene implementato nel quotidiano, in contesti dove il comportamento umano e le sue sfumature contano quanto il contenuto informativo.
Pensalo così: un modello linguistico (LLM, large language model) sa produrre testi, dialoghi, rispondere a una domanda con chiarezza, con grammatica, con stile. Ma non sempre sa “leggere” l’umore, il bisogno implicito, la frustrazione dietro la domanda. Non sa modulare la risposta in base a segnali sottili del comportamento dell’utente: se l’utente è insicuro, se è confuso, se vuole una spiegazione più semplice, se desidera empatia, se è orientato al sommario o al dettaglio. Ecco dove il modello comportamentale entra: non basta cosa dici, ma come lo dici, quando lo dici, con che tono e con quanta adattività.
Assessli ambisce a fare questo salto. Il suo modello non si limita a prevedere la parola successiva più probabile: studia modelli di comportamento, come gli utenti interagiscono, come le loro risposte si evolvono nel tempo, quali tipi di domande generano insicurezza, quali risposte accrescono la fiducia. In settori come l’istruzione, per esempio, questo significa che un sistema può non solo spiegare un concetto, ma riconoscere che lo studente è rimasto confuso, tornare indietro, cambiare strategia, usare esempi diversi, accompagnarlo non solo dal punto A al punto B, ma lungo il percorso, ascoltandolo realmente.
Nel settore sanitario, la rilevanza è ancora più cruciale: empatia, delicatezza, chiarezza non sono optional. Un paziente che pone domande difficili, che cerca rassicurazioni, che richiede spiegazioni multiple, ha bisogno non tanto della ricchezza lessicale quanto della sensibilità comportamentale. Un modello che sa riconoscere tono, esitazioni, segnali indiretti, può fare la differenza fra sentirsi capiti o sentirsi ignorati, fra fidarsi o abbandonare la conversazione.
Nei servizi finanziari poi, la fiducia è tutto. Non bastano termini tecnici precisi: serve anche che il sistema comprenda le paure implicite, risponda con trasparenza, rassicuri, eviti di usare un linguaggio che spaventa o confonde. Il comportamento in queste interazioni può migliorare il rapporto con l’utente, facilitare decisioni informate, prevenire abusi, aumentare percezione di correttezza e quindi accettazione.
Questo non significa che i modelli linguistici tradizionali non servano più: al contrario, sono indispensabili, la base su cui tutto si costruisce. Ma in molti casi potrebbero diventare solo la “materia prima” su cui costruire qualcosa che guardi oltre, che non si limiti al testo, che includa tono, contesto, emozione, comportamento. E Assessli propone che in futuro molti sistemi AI non saranno giudicati solo per quante parole possono generare, ma per quanto “umanamente utili” possono essere, per quanto riescono a stare vicino all’utente, non solo intellettualmente ma anche emotivamente.
È una sfida tecnica non da poco. Richiede dati comportamentali, raccolti in modo etico; richiede modelli che sappiano interpretare segnali sottili; richiede metriche diverse: non solo precisione, recall, coerenza lessicale, ma anche misure di fiducia, soddisfazione, empatia, adattività. Serve inoltre un’attenzione alta alla privacy, alla trasparenza, al bias: il comportamento “adeguato” può essere culturale, soggettivo, dipendere dal contesto. Un modello che funziona bene in un paese può sembrare freddo o invadente in un altro; un utente può preferire risposte dirette, un altro risposte sfumate; un modello può interpretare male segnali impliciti o culturali e offendere senza volerlo.
Quello che Assessli sta provando a fare è aprire una nuova strada: quella di AI non solo potente nel linguaggio, ma sensibile nel comportamento. Se riuscirà, potremmo vedere un cambiamento nella percezione dell’AI: non più solo strumenti che rispondono, ma collaboratori che comprendono, che accompagnano, che si adattano. In un mondo in cui le interazioni digitali aumentano, dove molte delle nostre relazioni, della nostra educazione, della nostra cura passano via schermo, questa differenza può essere decisiva.
Alla fine, la domanda che Assessli solleva è questa: vogliamo AI che suoni bene, o vogliamo AI che sia utile non solo alle nostre teste, ma anche ai nostri sentimenti? La vera sfida non è solo far parlare le macchine meglio, ma renderle capaci di ascoltare (o almeno tentare di farlo), di rispondere con cura, di non essere solo specchi di parole, ma riflessi di comportamenti, intenzioni, vissuti. E in quell’impresa c’è forse il prossimo vero salto dell’intelligenza artificiale.