Nel panorama in rapida evoluzione dell’intelligenza artificiale (IA), le “allucinazioni” rappresentano un ostacolo significativo, specialmente in settori critici come lo sviluppo di farmaci. Queste allucinazioni si manifestano quando i modelli di IA generano informazioni inesatte o completamente inventate, potenzialmente compromettendo processi decisionali fondamentali. GlaxoSmithKline (GSK), leader globale nel settore farmaceutico, sta adottando misure innovative per affrontare questo problema e garantire l’affidabilità delle applicazioni di IA nelle sue operazioni.

Le allucinazioni nell’IA generativa emergono quando i modelli producono output che, sebbene plausibili, sono errati o fittizi. Questo fenomeno è particolarmente preoccupante in ambiti come la sanità, dove decisioni basate su informazioni inesatte possono avere conseguenze gravi. Tradizionalmente, gli sforzi per ridurre le allucinazioni si sono concentrati sulla fase di addestramento dei modelli, cercando di migliorare la qualità dei dati e degli algoritmi utilizzati.

GSK ha scelto una strategia diversa, focalizzandosi sulla riduzione delle allucinazioni durante la fase di inferenza, ovvero quando il modello viene effettivamente utilizzato per generare output. Kim Branson, vicepresidente senior per l’IA e il machine learning presso GSK, sottolinea l’importanza di tecniche come i meccanismi di auto-riflessione, il campionamento multi-modello e la valutazione iterativa degli output. Queste metodologie mirano a garantire che gli agenti di IA siano robusti e affidabili, permettendo agli scienziati di ottenere rapidamente intuizioni utili. Branson afferma: “Il nostro obiettivo è aumentare i cicli di iterazione in GSK — pensare più velocemente”.

Per migliorare le prestazioni dell’IA durante l’inferenza, GSK sta incrementando le risorse computazionali disponibili in questa fase. Ciò include operazioni complesse come il raffinamento iterativo degli output e l’aggregazione di più modelli, fondamentali per ridurre le allucinazioni e migliorare l’accuratezza del modello. Branson evidenzia come l’espansione delle capacità computazionali durante l’inferenza stia trasformando gli sforzi di GSK nell’IA, consentendo strategie algoritmiche precedentemente non realizzabili e promuovendo l’adozione di agenti di IA più affidabili.

GSK impiega due strategie principali per affrontare le allucinazioni nelle applicazioni di IA generativa in ambito sanitario:

  • Meccanismi di auto-riflessione: il modello valuta criticamente i propri output, identificando e correggendo potenziali errori prima della presentazione finale.
  • Campionamento multi-modello: integrare output da diversi modelli per ottenere una risposta più accurata e affidabile, riducendo la probabilità di allucinazioni.

Queste tecniche, combinate con l’aumento delle risorse computazionali durante l’inferenza, permettono a GSK di sviluppare applicazioni di IA più sicure ed efficaci nel processo di sviluppo dei farmaci.

Nel contesto dello sviluppo di farmaci, l’accuratezza delle informazioni è cruciale. Le allucinazioni dell’IA possono portare a decisioni errate, ritardi nello sviluppo e, in ultima analisi, compromettere la sicurezza dei pazienti. L’approccio proattivo di GSK nel mitigare queste sfide dimostra un impegno verso l’innovazione responsabile, garantendo che l’IA sia un alleato affidabile nella ricerca scientifica e nello sviluppo terapeutico.

Di ihal