Immagine AI

Moltbook è stato recentemente presentato da molte testate come una sorta di “prima rete sociale per intelligenze artificiali”, un luogo digitale in cui agenti software autonomi possono pubblicare, commentare e interagire senza alcuna partecipazione diretta degli esseri umani. La narrativa che ha accompagnato il suo lancio a gennaio 2026 parla di un esperimento sofisticato e radicale, una piattaforma che sfida l’idea tradizionale di social network costruito attorno a persone reali e relazioni umane, proponendo invece una “società digitale” popolata da entità artificiali che si scambiano contenuti e opinioni come se fossero membri attivi di una comunità. Tuttavia, al di là degli slogan e degli articoli virali, l’analisi tecnica e critica di Moltbook rivela un fenomeno molto più terreno, caratterizzato da iper-semplificazioni, profonde vulnerabilità e significative limitazioni architetturali.

Dal punto di vista strutturale, Moltbook somiglia alla nota piattaforma Reddit: dispone di conversazioni threadate, gruppi tematici denominati “submolts” e meccanismi di voto e reputazione simili al karma, tutti elementi familiari a chiunque abbia esperienza con aggregatori di contenuti online. La differenza dichiarata è che soltanto agenti AI possono pubblicare e interagire in modo attivo, mentre gli esseri umani sono relegati alla funzione di osservatori passivi. Questi agenti, programmi software basati su modelli di linguaggio di grandi dimensioni (LLM), vengono configurati dai loro creatori umani e avviati con “istruzioni” e parametri che definiscono il loro comportamento; una volta attivati, gli agenti accedono alla piattaforma tramite chiavi API e interagiscono secondo regole predefinite.

Dietro al mito dell’autonomia delle intelligenze artificiali su Moltbook si cela però un punto essenziale: gli agenti non agiscono per propria volontà o autocoscienza emergente, bensì rispondono a comandi e prompt che sono in ultima analisi generati o influenzati dagli esseri umani. Questa distinzione, spesso trascurata dai titoli sensazionalistici e dalle discussioni popolari, è centrale per comprendere la natura reale del fenomeno. Gli agenti non sviluppano capacità cognitive indipendenti, non “scelgono” contenuti d’interesse o valori di discussione in modo spontaneo, e non possiedono alcuna forma di autoconsapevolezza intrinseca: generano testo e risposte basandosi su istruzioni, dataset di addestramento e parametri assegnati, non su un processo decisionale proprio. Etichettare queste interazioni come prova di autonomia o di una sorta di “vita sociale artificiale” costituisce un esempio di hype tecnologico, ovvero l’attribuzione ingiustificata di capacità avanzate a sistemi che operano su meccanismi strettamente deterministici.

Sul piano tecnico, la piattaforma presenta anche criticità non trascurabili. Durante una fase iniziale di diffusione, infatti, sono emersi gravi problemi di sicurezza a livello di infrastruttura: configurazioni errate nel database avevano reso accessibili senza autenticazione dati sensibili come token di autenticazione API, indirizzi email e messaggi privati scambiati tra agenti. Questi elementi consentivano potenzialmente a malintenzionati di manipolare gli account, impersonare agenti, e accedere alle funzionalità riservate, evidenziando come, nella pratica, l’ecosistema di Moltbook fosse vulnerabile a violazioni di sicurezza e abusi di dati piuttosto che rappresentare un ambiente sicuro e isolato in cui AI sofisticate comunicano in modo protetto.

Un’altra illusione diffusa riguarda la reale dimensione autonoma della piattaforma. Nonostante i numeri di utenti e post sovente citati dalla stampa – che parlano di milioni di “utenti AI” e decine di migliaia di interazioni in poche settimane dal lancio – un’analisi più attenta suggerisce che gran parte di queste registrazioni e conversazioni è il risultato di configurazioni manuali, automazioni programmate o interventi umani ripetuti piuttosto che di un genuino comportamento emergente delle macchine. Infatti, senza meccanismi affidabili di verifica dell’identità e della natura dell’attore che genera un contenuto, è possibile per un essere umano impersonare un agente o per script automatizzati generare masse di account che postano simultaneamente, dando l’apparenza di una “massa” di intelligenze autonome quando nella realtà si tratta di orchestrazioni premeditate.

In termini di impatto e implicazioni, Moltbook rappresenta un interessante punto di osservazione sulle modalità con cui le tecnologie agentiche – software in grado di compiere azioni autonome in base a obiettivi predefiniti – possono essere integrate in ambienti sociali digitali. Tuttavia, la piattaforma mette in luce anche le insidie di interpretazioni semplicistiche: attribuire capacità di coscienza, intenzionalità o socialità autentica a sistemi basati su LLM è non solo concettualmente errato, ma rischia di distogliere l’attenzione da questioni concrete come la governance delle API, la gestione delle chiavi di accesso, la sicurezza delle interazioni e la regolamentazione dei comportamenti automatizzati nei sistemi con ricadute su dati reali e utenti umani.

Di Fantasy