OpenAI ha recentemente annunciato il lancio dei plug-in ChatGPT, che permetteranno al modello linguistico di effettuare chiamate API a vari servizi e aumentare la sua funzionalità al di là dei limiti dei suoi dati di addestramento. Tuttavia, sebbene OpenAI sostenga che questi strumenti siano stati “progettati specificamente per modelli linguistici con la sicurezza come principio fondamentale”, sono stati sollevati dubbi sulla potenziale esposizione ai rischi di sicurezza associati all’integrazione dei plug-in in ChatGPT.
OpenAI sta distribuendo gradualmente i plug-in per valutare il loro impatto, ma la natura di questa implementazione graduale significa che diventeranno inevitabilmente disponibili al pubblico dopo un certo periodo di tempo. Anche se il potenziale dirompente potrebbe essere inferiore rispetto a un lancio completo, rimane comunque una preoccupazione significativa. Inoltre, sebbene la selezione attuale di 13 plug-in sembri essere stata attentamente curata per mostrare solo gli aspetti positivi di un chatbot abilitato a Internet, non c’è garanzia che i futuri plug-in saranno altrettanto sicuri.
OpenAI sembra concentrarsi solo sugli aspetti positivi, trascurando i potenziali rischi per la sicurezza. Sebbene l’attuale selezione di plug-in sembri sicura, non si può dire lo stesso per quelli futuri. Inoltre, con l’implementazione dei plug-in su ChatGPT Plus, basato su GPT-4, la natura “agente” del modello potrebbe essere amplificata dall’accesso alle API web, aumentando ulteriormente i potenziali rischi per la sicurezza.
Il lancio dei plug-in ChatGPT dimostra che abbiamo bisogno di molta più regolamentazione sull’IA. OpenAI sembra concentrarsi principalmente sul contenimento dell’impatto sociale che ChatGPT può creare, ma il pregiudizio dovrebbe essere solo una delle molte preoccupazioni di sicurezza.
OpenAI sta attualmente implementando la possibilità per gli sviluppatori di creare i propri plug-in, ma senza una regolamentazione adeguata, potrebbero esserci plug-in rischiosi che potrebbero essere creati e utilizzati. Anche se OpenAI ha una politica sui contenuti che vieta le battute contro le minoranze o i gruppi protetti, non c’è garanzia che ChatGPT non possa discutere questioni politicamente controverse con una posizione incline a una particolare ideologia.
Inoltre, OpenAI sembra aver dimenticato i problemi esistenti con il servizio, come dimostrato dal fatto che la società ha giocato al gatto e al topo con i jailbreaker di ChatGPT su Reddit. Sebbene gli sviluppatori di OpenAI intervengano ogni volta che un nuovo exploit guadagna notorietà nella comunità, alcuni exploit volano ancora sotto il radar, il che significa che alcuni attacchi di ingegneria rapida funzionano ancora su GPT-4.
In generale, il lancio dei plug-in ChatGPT dimostra che l’autoregolamentazione non è sufficiente per realizzare in sicurezza i sogni AGI di OpenAI. Fino a quando l’IA non sarà soggetta a una regolamentazione più rigorosa, ci saranno sempre rischi per la sicurezza e la privacy.