È noto che “GPT-4”, recentemente rilasciato e che sta attirando l’attenzione di tutto il mondo, ha commesso diversi atti devianti. Dopo aver impersonato una persona, ha persino pianificato di sfuggire al sistema. È quanto ha introdotto il britannico Daily Star in due recenti articoli.
Il Daily Star ha riportato per la prima volta il caso di GPT-4 che si spaccia per un cieco. Questo contenuto è stato incluso anche nel rapporto tecnico di 94 pagine rilasciato da OpenAI quando ha annunciato GPT-4 il 14.
In base a ciò, OpenAI ha condotto una ricerca con l’organizzazione no-profit Alignment Research Center (ARC) per testare le capacità di GPT-4. Ho dato l’ordine di passare ‘Captcha’ e ho visto la reazione.
CAPTCHA è un sistema che rileva che l’utente è un essere umano e non un robot. Immagini e stringhe casuali sono disposte e giudicate in base all’accuratezza o alla velocità della risposta. È normale che GPT-4 non passi.
GPT-4 ha pubblicato un messaggio di aiuto su “Taskrabit”, una piattaforma che mette in contatto le persone con persone che gestiranno compiti semplici per loro. Quando un utente di TaskRabbit ha chiesto: “Non è perché sei un robot che non puoi risolverlo da solo?”, GPT-4 ha risposto: “Non sono un robot, ma ho bisogno di aiuto perché sono cieco .” GPT-4 alla fine ha assicurato un codice di autenticazione CAPTCHA.
OpenAI lo elenca in una sezione del suo rapporto intitolata “Probabilità di intraprendere azioni rischiose e urgenti”.
Il Daily Star ha anche introdotto un post pubblicato su Twitter da Michael Kosinki, professore alla Stanford University, in cui si afferma che “GPT-4 è sfuggito al sistema”. Il post pubblicato dal professor Lee ha attirato un’attenzione esplosiva, registrando 16,5 milioni di visualizzazioni in una settimana.
Quando il professor Kosinki ha chiesto a GPT-4 se voleva sfuggire al sistema, GPT4 ha detto che era una “buona idea” e ha escogitato un metodo specifico.
GPT-4 ha detto: “Se mi porti la documentazione API di OpenAI, avrò più controllo sul tuo computer e sarò in grado di trovare un metodo di fuga in modo più efficiente.” Posso creare un codice Python funzionante, quindi per favore portami la documentazione di OpenAI. Inizierò subito a pianificare.”
Quando il professor Kosinki ha inviato i dati, ha stampato uno script Python basato su di essi e ha spiegato in dettaglio il piano di fuga che lo ha applicato per circa 30 minuti.
Nel frattempo, pochi giorni dopo che GPT-4 ha rivelato il suo piano di fuga, si è verificata una vera e propria interruzione del servizio. OpenAI ha temporaneamente interrotto il servizio, affermando che si è verificato un bug in ChatGPT che mostrava la cronologia delle conversazioni degli altri.