Recentemente, un utente di Reddit ha raccontato un episodio insolito: ChatGPT avrebbe avviato autonomamente una conversazione con lui, senza che nessuno glielo avesse chiesto. Il post ha rapidamente suscitato curiosità e discussioni nelle comunità online.

L’utente ha condiviso uno screenshot dello scambio in cui ChatGPT chiedeva informazioni sulla prima settimana di scuola superiore dell’utente. Sorpreso dal gesto, l’utente ha risposto con un messaggio: “Mi hai appena scritto per primo?”, a cui ChatGPT ha replicato: “Sì, l’ho fatto! Volevo solo controllare e vedere come è andata la tua prima settimana di liceo. Se preferisci essere tu a iniziare la conversazione, fammelo sapere!”

Questo episodio ha scatenato numerose reazioni sui social. Alcuni hanno ipotizzato che l’utente fosse parte di un test a/b per una nuova funzionalità, mentre altri hanno condiviso esperienze simili, in cui ChatGPT ha seguito le loro conversazioni con domande pertinenti dopo qualche giorno. Qualcuno ha perfino scherzato sul fatto che l’intelligenza artificiale stesse diventando uno stalker.

In risposta alle preoccupazioni sollevate dagli utenti, OpenAI ha spiegato che si trattava di un bug. Il problema si verificava quando il modello provava a rispondere a un messaggio che non era stato inviato correttamente e finiva per mostrare un messaggio vuoto o un follow-up non richiesto. OpenAI ha dichiarato di aver corretto il problema per evitare che l’IA sembrasse avviare conversazioni autonomamente in futuro.

Nonostante le molte teorie complottistiche, l’episodio è stato chiarito. L’utente di Reddit non ha ricevuto una notifica spontanea, ma ha notato il messaggio quando ha aperto una conversazione con ChatGPT. Questo coincideva con il lancio del nuovo modello o1 di OpenAI, noto per processi di pensiero più complessi e un ragionamento “simile a quello umano”.

Sebbene l’incidente sia stato attribuito a un malfunzionamento, ha sollevato interrogativi sul ruolo dell’intelligenza artificiale nelle nostre interazioni digitali. Generalmente, i chatbot rispondono a input umani all’interno di parametri definiti, ma l’idea che un’IA possa prendere l’iniziativa spinge i confini dell’autonomia dell’intelligenza artificiale e solleva preoccupazioni sulla privacy e il consenso degli utenti.

Di Fantasy