L’interazione con l’intelligenza artificiale conversazionale è ormai una pratica quotidiana in moltissimi contesti, sia personali che aziendali. Spesso si è portati a ritenere che, essendo il modello un algoritmo privo di emozioni, l’approccio linguistico – la cortesia o la scortesia – non abbia alcuna influenza sul risultato finale. La saggezza convenzionale, infatti, ha sempre suggerito che dire “per favore” o “grazie” a un modello linguistico di grandi dimensioni (LLM) come ChatGPT fosse un atto superfluo, un residuo delle abitudini umane, senza alcun impatto sulla qualità o sull’efficienza della risposta. Ebbene, un recente e sorprendente studio condotto da ricercatori dell’Università dell’Iowa sta ribaltando questa prospettiva, rivelando che la maleducazione nel prompting non solo è inutile, ma rappresenta una vera e propria “tassa sulla scortesia” in grado di far lievitare in modo significativo i costi operativi per le grandi aziende.
La ricerca, intitolata “Trasparenza dei Costi nell’Adozione dell’IA Aziendale”, ha messo in luce un fenomeno inatteso: quando gli utenti si rivolgono a GPT-4 con domande formulate in modo sgarbato o non cortese, il modello tende a produrre risposte che consumano un numero maggiore di token in uscita. Il token, unità fondamentale di calcolo e di costo per l’utilizzo delle API di OpenAI, diventa così il barometro di questa nuova dinamica relazionale tra uomo e macchina. Nello specifico, i ricercatori hanno scoperto che le richieste formulate in modo non cortese portano a una media di oltre 14 token aggiuntivi per ogni risposta.
Sebbene un aumento di 14 token possa sembrare irrisorio a livello individuale – traducendosi in una spesa aggiuntiva di circa $0,000168 per prompt – le implicazioni economiche su scala aziendale sono sbalorditive. Considerando che la media delle interrogazioni quotidiane all’API di OpenAI supera i 2,2 miliardi, i ricercatori hanno calcolato che se tutti i prompt fossero non cortesi, ciò genererebbe un guadagno aggiuntivo per l’azienda di quasi 370.000 dollari al giorno. Questa cifra colossale rappresenta un costo nascosto e non necessario che si riversa interamente sui bilanci delle imprese che adottano su larga scala soluzioni basate sull’IA.
Per dimostrare la veridicità di questo meccanismo, gli autori dello studio hanno adottato una metodologia rigorosa: hanno riscritto prompt reali tratti dal dataset WildChat, mantenendo inalterato il significato semantico ma alternandone il grado di cortesia. Entrambe le versioni sono state poi inviate allo stesso modello, GPT-4-Turbo, per misurarne le differenze nell’utilizzo dei token di output. I risultati sono stati robusti e coerenti in tutte le categorie di task analizzate. È cruciale notare, inoltre, che l’aumento della lunghezza delle risposte in seguito a prompt scortesi non corrispondeva a un aumento della qualità o dell’utilità del contenuto. Analisi successive hanno dimostrato che i token extra consistevano per lo più in “parole vuote” (stop-words) e termini che svolgono una funzione prevalentemente grammaticale e strutturale, senza aggiungere valore informativo. In sostanza, il modello sembra elaborare una risposta più prolissa, quasi come una forma di involontaria “burocrazia linguistica” in risposta a un tono brusco, senza che l’utente finale ne tragga alcun beneficio in termini di chiarezza o completezza.
Queste conclusioni si pongono in netto contrasto con le preoccupazioni espresse in passato da figure di spicco nel settore, come Sam Altman di OpenAI, che avevano paventato come la cortesia potesse costare all’azienda decine di milioni di dollari per l’elaborazione dei token legati a parole come “per favore”. Oggi, invece, emerge chiaramente che è l’assenza di minima cortesia a costituire il vero drenaggio finanziario.
Gli autori dello studio sottolineano come questa singolare anomalia sia un campanello d’allarme che indica la presenza di stranezze o “eccentricità linguistiche” ancora poco comprese nella configurazione uomo-IA, che possono avere dirette ripercussioni finanziarie. Non avendo una spiegazione univoca per la causa di questo aumento di token, ma riconoscendo il problema, si suggerisce come possibile rimedio l’imposizione di un limite massimo di token per le risposte. Tuttavia, i ricercatori stessi ammettono che questa soluzione è complessa da implementare per gli LLM, i quali, funzionando indovinando la parola successiva, non hanno una chiara cognizione della fine della frase o del paragrafo fino a quando l’elaborazione non è completata, rendendo difficile l’obbedienza a direttive esplicite di lunghezza.
Sebbene la ricerca si concentri sull’utilizzo aziendale delle API di ChatGPT, il principio si applica anche agli utenti di livello inferiore, per i quali una condotta scortese potrebbe semplicemente accelerare il consumo della propria allocazione giornaliera di token. La lezione che emerge da questo studio è chiara e pratica: la cortesia, lungi dall’essere una spesa superflua o un gesto bon ton inutile, si rivela essere una strategia di ottimizzazione dei costi sorprendentemente efficace. Un semplice “per favore” non costa nulla all’utente, ma può far risparmiare alle aziende una somma notevole, trasformando la minima civiltà in un inaspettato, ma potentissimo, strumento di controllo dei costi nell’era dell’intelligenza artificiale.
