L’integrazione dell’intelligenza artificiale nei software di assistenza alla scrittura ha trasformato profondamente il modo in cui vengono prodotti e revisionati i testi digitali. Strumenti che inizialmente si limitavano a controllare ortografia e grammatica sono oggi diventati piattaforme complesse in grado di suggerire modifiche stilistiche, generare contenuti e analizzare il tono di un documento. In questo contesto si inserisce l’evoluzione di Grammarly, uno dei più diffusi assistenti di scrittura digitale, che negli ultimi anni ha ampliato il proprio ecosistema con numerose funzionalità basate su modelli di intelligenza artificiale generativa. Tuttavia, una di queste funzionalità – progettata per imitare lo stile di autori e esperti – è stata recentemente ritirata dopo un forte contraccolpo pubblico e legale.
Grammarly è nato nel 2009 come sistema di revisione automatica del testo destinato principalmente al controllo grammaticale e stilistico. Con il tempo la piattaforma si è evoluta in un ambiente di scrittura più avanzato, integrando strumenti di suggerimento stilistico, analisi del tono comunicativo e rilevazione del plagio. Negli ultimi anni, con la diffusione dei modelli linguistici generativi, il software ha iniziato a incorporare funzionalità sempre più sofisticate, come la generazione automatica di contenuti e l’analisi predittiva della qualità di un testo.
All’interno di questa strategia di espansione tecnologica era stato introdotto uno strumento chiamato “Expert Review”, progettato per fornire suggerimenti di revisione simulando il punto di vista di esperti, autori e accademici. Il sistema permetteva agli utenti di inserire un testo e ricevere suggerimenti stilistici presentati come se provenissero da figure note del mondo culturale o scientifico. Tra i nomi citati figuravano scrittori e studiosi di fama internazionale, tra cui Stephen King, Neil deGrasse Tyson e Carl Sagan, oltre a numerosi giornalisti e accademici.
Dal punto di vista tecnologico, la funzione sfruttava modelli linguistici di grandi dimensioni addestrati su vasti corpus di testi. L’obiettivo era replicare alcune caratteristiche stilistiche tipiche degli autori selezionati, generando suggerimenti coerenti con il loro approccio comunicativo. Il sistema analizzava il documento dell’utente e produceva feedback che simulavano il modo in cui uno specifico autore avrebbe potuto commentare o migliorare il testo. In pratica, il software utilizzava l’intelligenza artificiale per costruire una sorta di “avatar editoriale” virtuale capace di fornire consigli personalizzati.
L’idea alla base di questa funzione era quella di trasformare l’assistente di scrittura in un sistema di consulenza stilistica più sofisticato. Invece di limitarsi a suggerire correzioni grammaticali o modifiche di forma, il software avrebbe potuto offrire suggerimenti ispirati a specifiche tradizioni editoriali o accademiche. In teoria, questo approccio avrebbe permesso agli utenti di confrontare il proprio stile con quello di autori influenti e di migliorare la qualità del testo in modo più approfondito.
Tuttavia, il funzionamento del sistema ha sollevato rapidamente critiche significative. Molti degli autori e giornalisti citati nel software hanno dichiarato di non essere mai stati consultati o coinvolti nello sviluppo della funzione. Alcuni di loro hanno scoperto l’esistenza dello strumento solo dopo il suo rilascio pubblico, quando i loro nomi sono stati utilizzati per attribuire credibilità ai suggerimenti generati dall’intelligenza artificiale.
Le critiche si sono concentrate soprattutto su due aspetti principali. Il primo riguarda l’utilizzo delle identità professionali di persone reali senza consenso esplicito. Secondo alcuni esperti, attribuire suggerimenti generati automaticamente a figure riconoscibili del mondo accademico o giornalistico rischia di creare l’impressione che tali persone abbiano effettivamente partecipato allo sviluppo del sistema o approvato i contenuti generati dall’AI. Il secondo problema riguarda la qualità e l’affidabilità dei suggerimenti prodotti dal sistema. Alcuni degli autori coinvolti hanno osservato che i consigli attribuiti al loro “avatar digitale” risultavano spesso imprecisi o stilisticamente incoerenti con il loro modo reale di scrivere.
Il caso ha assunto rapidamente una dimensione legale. La giornalista investigativa Julia Angwin ha presentato una class action negli Stati Uniti, sostenendo che la piattaforma avesse utilizzato nomi e identità professionali di centinaia di autori e studiosi senza autorizzazione, traendone un vantaggio commerciale. La causa sostiene che questo utilizzo potrebbe violare le normative sulla tutela dell’identità e sull’uso commerciale dell’immagine personale. Secondo la denuncia, i danni potenziali per la categoria degli autori coinvolti potrebbero superare i cinque milioni di dollari.
Di fronte alla crescente pressione mediatica e alle critiche provenienti da accademici e giornalisti, la società ha deciso di disattivare la funzione. Il management ha riconosciuto che il progetto non aveva raggiunto gli obiettivi previsti e che la modalità di implementazione aveva generato problemi di rappresentazione delle voci degli esperti. L’azienda ha quindi annunciato l’intenzione di ripensare completamente l’approccio a questo tipo di funzionalità, introducendo in futuro sistemi che consentano agli autori di controllare direttamente l’utilizzo del proprio nome o della propria produzione intellettuale.
