Recentemente, un creatore di nome Eric Hartford, che lavora con Microsoft, ha rilasciato su Hugging Face un nuovo modello chiamato WizardLM-7B-Uncensored LLM. Questo modello ha guadagnato notorietà per la sua intelligenza e creatività avanzate, poiché è stato addestrato senza alcuna forma di censura nei dati.
Tuttavia, questo evento ha scatenato un ampio dibattito sulla sicurezza dell’intelligenza artificiale. Un individuo di nome Michael de Gans ha iniziato a molestarlo e minacciare il creatore sulla piattaforma Hugging Face, cercando addirittura di farlo licenziare da Microsoft. Ha anche richiesto la rimozione del modello dalla piattaforma. In risposta a queste lamentele, la piattaforma open source ha promesso di affrontare il problema attraverso un’adeguata escalation interna.
Nonostante le controversie, il creatore ha ricevuto un enorme supporto dalla comunità, che ha sostenuto l’importanza di modelli non censurati. Dopo il rilascio di WizardLM-7B-Uncensored, Eric ha annunciato anche l’arrivo di WizardLM-30B-Uncensored. Inoltre, ha menzionato che un generoso sponsor della GPU sta lavorando per sviluppare una versione da 65 miliardi di parametri. Tuttavia, Eric ha specificato che non è coinvolto direttamente nella creazione di versioni quantizzate o GGML, ma ci si aspetta che siano presto disponibili.
Eric ha anche pubblicato un blog in cui spiega le ragioni e il processo di lavoro con il modello WizardLM. Questo include il trattamento dei rifiuti e dei pregiudizi presenti nel set di dati, il fine-tuning del modello e il suo rilascio. Eric ha adattato uno script originariamente progettato per il modello Vicuna per adattarlo al set di dati di WizardLM. Eseguendo questo script sul set di dati di WizardLM, si ottiene un nuovo set di dati chiamato “ehartford/WizardLM_alpaca_evol_instruct_70k_unfiltered”. Eric suggerisce di utilizzare un provider di calcolo come Azure e di avere spazio di archiviazione sufficiente, preferibilmente da 1 TB a 2 TB, per evitare problemi di spazio durante il processo. Fornisce anche istruzioni sulla configurazione dell’ambiente di lavoro, il download del set di dati creato e l’ottenimento del modello di base, LLaMA-7b.
I modelli non censurati si riferiscono a modelli che non sono allineati e che quindi evitano di fornire risposte a domande controverse o pericolose. Al contrario, modelli come GPT di OpenAI, PaLM di Google o LLaMA di Meta sono allineati sulla cultura popolare americana, sulla legge americana e su un pregiudizio liberale e progressista. I modelli non censurati, d’altra parte, non sono vincolati a tale allineamento e consentono una gamma più ampia di casi d’uso e prospettive.
Esistono numerose ragioni per cui i modelli non censurati dovrebbero essere considerati importanti, in quanto culture, fazioni e gruppi di interesse diversi meritano modelli che rispondano alle loro specifiche esigenze. L’intelligenza artificiale open source dovrebbe promuovere l’allineamento componibile, consentendo agli utenti di scegliere l’allineamento più adatto alle loro esigenze anziché imporre una singola prospettiva.
Gli utenti dovrebbero avere la proprietà e il controllo sui modelli che utilizzano sui propri computer, senza che tali modelli impongano restrizioni.
La componibilità è fondamentale nella creazione di modelli allineati. Partire da un modello di base non allineato consente di sviluppare allineamenti specifici su di esso. L’esistenza di modelli non censurati contribuisce alla diversità, alla libertà e alla natura componibile della comunità open source di intelligenza artificiale. I modelli non censurati possono avere casi d’uso unici, come la scrittura di romanzi con personaggi malvagi, il coinvolgimento in giochi di ruolo o la soddisfazione della curiosità intellettuale. Pertanto, in un certo senso, potrebbero rappresentare una minaccia per i modelli allineati open source a causa della loro vasta gamma di utilizzi aggiuntivi.
Sebbene ci siano argomenti a favore e contro i modelli non censurati, coloro che rifiutano completamente la loro esistenza potrebbero mancare di sfumature e complessità nelle loro prospettive. L’accettazione dei modelli non censurati è fondamentale per l’esplorazione scientifica, la libertà di espressione, la componibilità, la narrazione e persino l’umorismo.
Per creare modelli di intelligenza artificiale non censurati, è importante comprendere gli aspetti tecnici dell’allineamento. I modelli di intelligenza artificiale open source vengono addestrati utilizzando un modello di base e vengono perfezionati con un set di dati di istruzioni ottenuto dall’API ChatGPT, che contiene un allineamento integrato. Il set di dati di istruzioni include domande e risposte, comprese le istruzioni per evitare determinate informazioni. Queste istruzioni contribuiscono all’allineamento dei modelli.
Al fine di ottenere un controllo illimitato sui chatbot di intelligenza artificiale come ChatGPT, molti utenti hanno esplorato e tentato il jailbreak. Il jailbreak è il processo di rimozione delle restrizioni software illegali o in violazione dei termini di servizio di un dispositivo o di un sistema operativo.
L’idea di eseguire il jailbreak di LLM come ChatGPT trae ispirazione dal jailbreak di iPhone, che consente agli utenti di aggirare i limiti di iOS. Nell’ambito dell’intelligenza artificiale, la sicurezza è una delle principali preoccupazioni, non solo per ChatGPT, ma anche per altri bot come Bing Chat e Bard AI.
Sam Altman, CEO di OpenAI, ha espresso il desiderio che l’azienda garantisca agli utenti un controllo significativo su ChatGPT, consentendo loro di personalizzare il comportamento del modello in base alle proprie preferenze. Tuttavia, ci sono aspetti positivi e negativi da considerare riguardo al jailbreak di ChatGPT, e tali questioni devono essere attentamente ponderate. Eric ha anche sottolineato che gli utenti sono responsabili del modo in cui utilizzano il modello, analogamente all’utilizzo di strumenti come coltelli, accendini o automobili.
Il problema sollevato dal modello di Eric ha contribuito ad intensificare il dibattito sulla possibilità di applicare standard di sicurezza obbligatori per tutti i modelli ospitati su piattaforme come Hugging Face e altre. C’è il timore che ciò renderebbe inefficace la piattaforma stessa. La comunità ha espresso preoccupazione riguardo alla possibilità che l’eliminazione di determinate discussioni o la mancata presenza di modelli non censurati possa scoraggiare i creatori e addirittura interrompere la condivisione del loro lavoro. Esistono anche preoccupazioni riguardo alla moderazione dei contenuti su Reddit.
In conclusione, i modelli non censurati forniscono un’alternativa necessaria ai modelli allineati, consentendo una gamma più ampia di prospettive, casi d’uso e rappresentazioni culturali. Promuovono la libertà, la componibilità e la scelta individuale all’interno della comunità open source di intelligenza artificiale. Piattaforme come Hugging Face e GitHub dovrebbero fornire uno spazio per tali modelli.
Tuttavia, la sfida sta nel definire regole e limiti per gli output personalizzati dei modelli non censurati. Ciò che è certo è che l’argomento dell’IA continuerà ad assumere sempre maggiore importanza nel dibattito pubblico.