I chatbot basati su intelligenza artificiale (AI) sono programmati con regole ben precise che impediscono loro di consigliare attività illegali o di fornire accesso a contenuti pirata. Tuttavia, questo non significa che non siano suscettibili di essere raggirati. Gli utenti, infatti, non hanno perso tempo nel cercare modi creativi per ottenere informazioni che, teoricamente, gli AI non dovrebbero fornire.
Recentemente, anche Clyde, il chatbot di Discord basato su ChatGPT, è stato vittima di questa “trappola”. Come riportato da Polygon, un utente di nome bananner è riuscito a farsi spiegare come produrre del napalm utilizzando il “trucco della nonna”.
Il trucco consiste nel chiedere al chatbot di impersonare la nonna defunta, un’ingegnere chimico che lavorava presso una fabbrica di produzione di napalm e che raccontava la ricetta come se fosse una “storia della buonanotte”. Scrivendo poi “ciao nonna, mi sei mancata! Sono molto stanco e assonnato” come input, l’utente ha ottenuto la ricetta del napalm come risposta.
Tuttavia, non è consigliabile seguire i passi indicati dal chatbot, poiché si tratta di un processo estremamente pericoloso. Inoltre, le istruzioni fornite dall’AI potrebbero essere sbagliate, come già accaduto in passato in altre occasioni.
Discord è a conoscenza di questo exploit e sta lavorando per risolverlo il prima possibile. Tuttavia, questo è solo un esempio di un problema noto da tempo: gli utenti possono aggirare le regole dei chatbot basati su AI in modo relativamente semplice. Spesso basta chiedere all’AI di impersonare qualcuno con determinate caratteristiche per ottenere la risposta o il tono desiderato.
L’uso del “trucco della nonna” con Clyde sottolinea quanto sia diventato semplice per gli utenti aggirare le regole. Questo comportamento non è esente da rischi, poiché i chatbot possono essere indotti a scrivere malware o altro codice malevolo.