Immagine AI

Un lungo post pubblicato su X dall’imprenditore e investitore americano Matt Schumer ha riacceso il dibattito internazionale sull’evoluzione recente dell’intelligenza artificiale generativa, sostenendo che il settore abbia raggiunto un vero e proprio punto di svolta tecnologico. Il testo, intitolato “Qualcosa di grosso sta accadendo”, ha superato gli 80 milioni di visualizzazioni in pochi giorni e si colloca nel filone di riflessioni che paragonano l’attuale momento dell’AI ai primi segnali della pandemia nel febbraio 2020: secondo Schumer, così come allora pochi compresero l’imminenza di un cambiamento globale, oggi la maggior parte delle persone sottovaluta la portata delle trasformazioni introdotte dagli ultimi modelli di intelligenza artificiale.

Il cuore dell’argomentazione riguarda l’evoluzione qualitativa dei modelli linguistici di ultima generazione. Schumer cita esplicitamente sistemi come GPT-5.3-Codex di OpenAI e Claude Opus 4.6 di Anthropic, sostenendo che non si tratti di semplici incrementi prestazionali, ma di un salto di paradigma nella capacità dei modelli di esprimere giudizio, discernimento e coerenza strutturale. Nella sua descrizione, la differenza rispetto ai modelli del 2023 o dell’inizio del 2024 sarebbe sostanziale: laddove prima era necessario guidare costantemente l’AI con istruzioni dettagliate e correzioni iterative, oggi – afferma – basterebbe descrivere l’obiettivo in modo semplice per ottenere codice robusto, strutturato e pronto alla distribuzione.

Dal punto di vista tecnico, questo cambiamento viene ricondotto alla crescente integrazione tra modelli linguistici di grandi dimensioni e ambienti di esecuzione in grado di chiudere il ciclo tra generazione, verifica e correzione. Quando Schumer parla di “autogenerazione”, si riferisce a sistemi capaci di scrivere codice, eseguirlo, rilevare errori, correggerli e reiterare il processo in modo semi-autonomo. Questo introduce un meccanismo di feedback interno che, in teoria, può migliorare progressivamente la qualità dell’output senza intervento umano continuo. In ambito di ricerca, tale dinamica è spesso descritta come “self-refinement loop” o “iterative self-improvement”, un’architettura in cui il modello non si limita a produrre una risposta statica ma partecipa a un ciclo di valutazione e ottimizzazione.

La tesi centrale di Schumer è che questo tipo di evoluzione stia spostando l’intelligenza artificiale dalla fase di assistenza passiva a quella di agente attivo nei flussi di lavoro cognitivi. Se un sistema è in grado di comprendere un obiettivo, pianificare una sequenza di azioni, generare codice o documenti complessi e correggersi autonomamente, allora il confine tra strumento e collaboratore diventa meno netto. Secondo questa visione, tutte le attività svolte principalmente davanti a un monitor e con una tastiera – analisi di contratti, modellazione finanziaria, redazione tecnica, sviluppo software – entrerebbero progressivamente nell’ambito dell’automazione cognitiva avanzata.

Schumer richiama anche le dichiarazioni di Dario Amodei, amministratore delegato di Anthropic, secondo cui entro uno-cinque anni l’AI potrebbe eliminare fino al 50% dei posti di lavoro entry-level in ambito d’ufficio. L’autore del post giudica questa previsione addirittura prudente, sostenendo che le performance attuali dei modelli rendano plausibile un cambiamento economico visibile già entro la fine dell’anno. Dal punto di vista macroeconomico, l’ipotesi si basa sull’assunto che l’automazione cognitiva sia diversa dalle precedenti ondate di automazione industriale: mentre in passato venivano sostituite principalmente mansioni fisiche ripetitive, ora sarebbero coinvolte competenze analitiche e decisionali considerate fino a poco tempo fa prerogativa esclusiva dell’uomo.

Una delle immagini più forti evocate nel dibattito è quella di una “nazione virtuale” composta da milioni di agenti artificiali più intelligenti dei premi Nobel e operativi senza interruzione. In questo scenario ipotetico, la potenza di calcolo combinata e la capacità di apprendimento continuo produrrebbero un’accelerazione esponenziale della ricerca scientifica, con la possibilità di comprimere decenni di innovazione in pochi anni, ad esempio nella scoperta di farmaci oncologici o nelle terapie anti-invecchiamento. Tuttavia, la stessa concentrazione di capacità cognitive artificiali solleverebbe interrogativi sulla sicurezza globale, sulla governance tecnologica e sulla distribuzione dei benefici economici.

Non sono mancate reazioni critiche. Il professore della New York University Gary Marcus, noto per le sue posizioni scettiche sull’intelligenza artificiale generativa, ha contestato l’assenza di dati empirici a supporto delle affermazioni di Schumer, definendo l’articolo una forma di allarmismo non suffragato da evidenze quantitative. Marcus sottolinea che, pur riconoscendo l’impatto dell’AI sul lavoro, il ritmo di sostituzione occupazionale sarebbe più lento e mediato da fattori regolatori, culturali e organizzativi.

La credibilità del messaggio è stata inoltre messa in discussione alla luce del passato imprenditoriale di Schumer. In qualità di co-fondatore e CEO di Hyperlight e investitore tramite Schumer Capital, egli è direttamente coinvolto nello sviluppo e nella promozione di tecnologie AI. Il precedente rilascio del modello open source “Reflection 70B”, inizialmente presentato come leader di categoria ma poi criticato per prestazioni inferiori alle aspettative, viene citato dai detrattori come esempio di eccesso di entusiasmo comunicativo.

Dal punto di vista tecnico-strategico, tuttavia, il dibattito sollevato non può essere liquidato come mera retorica. Negli ultimi due anni i modelli di linguaggio hanno effettivamente registrato miglioramenti significativi in termini di capacità di ragionamento, gestione del contesto esteso e integrazione con strumenti esterni. L’integrazione di ambienti di esecuzione, sistemi di retrieval, memorie persistenti e pipeline di verifica automatica sta trasformando i modelli da generatori di testo a piattaforme operative per compiti complessi. Questo non implica automaticamente un’esplosione esponenziale incontrollata dell’intelligenza, ma segnala un’evoluzione architetturale che modifica la natura stessa dell’interazione uomo-macchina.

Un aspetto pragmatico del messaggio di Schumer riguarda l’invito all’azione individuale. Egli suggerisce di utilizzare modelli ad alte prestazioni nella quotidianità professionale, di affidare loro compiti concreti e strutturati e di sviluppare l’abitudine ad apprendere rapidamente nuovi strumenti. In un contesto in cui le capacità dei sistemi cambiano con cicli semestrali o trimestrali, la competenza non risiederebbe più solo nella conoscenza statica, ma nella capacità di adattamento continuo e di integrazione dell’AI nei flussi di lavoro.

Di Fantasy