Durante il DevDay 2025, nel luminoso scenario di San Francisco, Sam Altman e Jony Ive sono saliti sul palco insieme per parlare di un ambizioso progetto che promette di ridefinire il nostro rapporto con la tecnologia. Ive, noto al grande pubblico per aver plasmato il design di molti prodotti Apple iconici, ha rivelato che sta collaborando con OpenAI alla realizzazione di un dispositivo ChatGPT che non si limita a “far parlare” l’utente con un software, ma che vuole integrarsi in modo naturale nella vita quotidiana. L’obiettivo non è solo funzionale, ma quasi filosofico: trasformare la tecnologia da intermediario tra le persone in qualcosa che sia fluido, empatico, quasi invisibile.
Pur mantenendo un velo di mistero attorno ai dettagli, sia Altman sia Ive hanno usato un linguaggio che suggerisce una svolta rispetto ai dispositivi tradizionali. Altman ha ammesso la difficoltà intrinseca dell’hardware: «Trovare nuovi fattori di forma per i computer è arduo», ha detto, avvertendo che serve tempo per fare qualcosa di veramente “straordinario”. Ive ha confermato che il suo team ha elaborato tra le quindici e le venti idee di prodotto interessanti, ma nessuna è ancora diventata linea definitiva. Ciò che appare chiaro è l’intento di uscire da modelli consolidati, di superare la rigidità degli schermi e delle interfacce che richiedono istruzioni esplicite.
Il progetto immaginato spinge verso una tecnologia che “sappia già come stare con noi”. Ive ha spiegato che, a suo avviso, il rapporto che abbiamo oggi con i dispositivi non è fluido: siamo noi a doverci adattare alle macchine, alle interfacce, alle logiche. Con questo nuovo dispositivo, egli aspira a invertire quella dinamica: non l’utente deve imparare a usare la tecnologia, ma la tecnologia deve diventare compagna, sintonizzata sull’utente, capace di anticipare bisogni, comprendere contesti e intervenire senza che gli venga spiegato ogni volta cosa fare. Il tono non è quello di un gadget da boutique, ma di uno strumento che renda le persone più felici, più serene, meno ansiose e meno alienate. In una frase: il dispositivo dovrebbe rendere più che funzionare.
Nel corso dell’evento Altman ha evocato l’idea che il nuovo hardware dovrà interagire con le persone senza passaggi intermedi, senza che l’utente dica esplicitamente “adesso accenditi” o “fammi vedere questo”. Ive ha ribadito che, sebbene i computer e i telefoni siano eccellenti, c’è ancora terreno da esplorare nei “nuovi dispositivi”. Ha parlato del desiderio che il prodotto “faccia ridere la gente”, che non sia solo qualcosa di serio e riservato agli esperti, ma che abbia una dimensione umana, che ci avvicini anziché allontanarci.
Le voci che circolano collocano il dispositivo a una dimensione simile a quella di uno smartphone: con fotocamera, microfono, altoparlante, capace di visualizzare contenuti su uno schermo esterno (PC o telefono). Ma anche qui prevale l’insicurezza: non è chiaro se il dispositivo avrà uno schermo proprio, né come gestirà in modo discreto il flusso continuo di dati. Alcuni reportage indicano che sarà “sempre attivo”, ascolterà costantemente, raccoglierà segnali ambientali e risponderà con modalità vocali, evitando però comportamenti invadenti come parlare quando non serve o non sapere quando smettere la conversazione. (Vedasi ad esempio le difficoltà segnalate nell’elaborazione del “quando intervenire” o “quando tacere”)
Questa ambizione non è priva di ostacoli. Secondo TechCrunch, OpenAI e Ive starebbero affrontando sfide tecniche significative: la gestione della potenza di calcolo su un dispositivo compatto, il controllo della privacy in un contesto “always on”, la definizione del “tono” del dispositivo, e la capacità di interrompersi al momento giusto. Altri rapporti indicano che il progetto potrebbe subire ritardi, a causa dell’equilibrio difficile tra hardware e richieste computazionali.
Ive, in più, non nasconde che il ritmo dell’innovazione in AI è vertiginoso: ogni settimana appare qualcosa di nuovo, e mantenere il focus è arduo. Tuttavia, proprio per questo motivo, ha giustificato la scelta di collaborare con OpenAI, un’azienda che già padroneggia i modelli linguistici e che può assistere il design con un fondamento tecnologico forte.
Non è stata resa nota una data certa di lancio, ma alcune fonti indicano che possa avvenire verso la fine del 2026. È anche emerso che, piuttosto che distribuirlo liberamente, il dispositivo potrebbe essere riservato inizialmente agli abbonati a pagamento di ChatGPT.