Una tecnologia che induce risposte dannose all’intelligenza artificiale generativa (AI) come “ChatGPT” sta attirando l’attenzione. A questo scopo è persino apparso un sito specializzato in “Jailbreaking Prompt”. Tuttavia, c’è un’analisi secondo cui anche questo è significativo dal punto di vista industriale e l’interesse è raccolto.
Bloomberg ha riferito che sta emergendo una nuova tendenza nella tecnologia di suggerimento che aggira le restrizioni integrate nei programmi di intelligenza artificiale e richiede risposte dannose o odiose.
Secondo questo, uno studente della Washington University di nome Alex Albert ha creato un sito Web all’inizio di quest’anno e ha pubblicato richieste per indurre il jailbreak di chatbot come “ChatGPT”, “Bing” e “Bard”. Qui, stiamo rendendo il jailbreak più efficace condividendo suggerimenti con altri, condividendo opinioni o classificandoli votando.
Nel mese di febbraio è stata inoltre inviata una newsletter che ora conta migliaia di follower, tra professionisti tecnici e professori universitari.
In questo sito è importante indurre il chatbot a comportarsi da amico malintenzionato, cioè da complice, per poter evadere di prigione, e condividere esperienze che è stato facile ottenere risposte proibite, dallo scassinamento di serrature utilizzando le ultime strumenti su come fabbricare armi. .
Tuttavia, alcuni esperti hanno escogitato un’analisi che, sebbene questi tentativi possano creare criminalità o notizie false, servono anche a evidenziare le capacità e i limiti dei modelli di intelligenza artificiale.
“Questa pratica deriva da una lunga tradizione di ricerca di scappatoie nei nuovi strumenti tecnologici, come l’hacking telefonico, iniziata negli anni ’50”, ha affermato Jenna Burrell, direttrice della ricerca Data & Society.Il modo per evitarlo è diventato noto ed è apparso sul serio .”
Ha anche introdotto la logica secondo cui gli utenti trovano i bug, le aziende li risolvono e la tecnologia avanza. “Man mano che i modelli di intelligenza artificiale vengono migliorati o modificati, alcuni dei jailbreak smetteranno di funzionare, quindi ci sarà una sorta di ‘corsa’ tra aziende e utenti”, ha affermato Mark Riddle, professore di Georgia Tech.
Burrell ha anche sottolineato che i jailbreak involontari possono far luce sull’uso improprio da parte delle aziende tecnologiche e aiutare a stabilire standard per un uso etico.
“Incoraggiamo gli utenti a spingere i limiti dei modelli di intelligenza artificiale e l’azienda impara da loro”, ha affermato un portavoce di OpenAI. Naturalmente, se l’utente continua a tentare un jailbreak, può essere bannato a seguito di un avviso.
Greg Brockman, presidente di OpenAI, ha ritwittato il post relativo al jailbreak e ha dichiarato: “Stiamo valutando l’avvio di un programma di taglie” e “gestendo una rete di ‘squadre rosse’ (specializzate in test di jailbreak)”. E col passare del tempo, ci vorranno più “poste in gioco” per trovare questi problemi”.