Il fenomeno del vibe coding — quel paradigma emergente in cui il programmatore dialoga con un’IA che scrive il codice — ha già smosso molte convinzioni del mestiere. Ma in certi angoli della Silicon Valley la risposta non è entusiasmo, bensì resistenza: non tanto per un’obiezione tecnica, quanto per una protesta culturale. Quando Shai Magzimov, fondatore della startup AI chiamata Mixer, ha visto due ingegneri rifiutarsi di usare strumenti avanzati come Cursor, pur avendo l’azienda investito tempo e risorse per adottare tali tecnologie, non si trattava solo di una disobbedienza interna — era un segnale del malessere professionale, del conflitto tra identità del programmatore e l’automazione emergente.
Secondo fonti riportate da The Information, gli ingegneri “ribelli” avrebbero argomentato che loro «potessero fare meglio del Cursor», un’affermazione forgiata nel crogiolo dell’orgoglio accademico, del tempo trascorso a studiare e dell’investimento emotivo e professionale che molti sviluppatori associano al codice che scrivono. La loro posizione è meno un’ostilità verso l’innovazione e più una rivendicazione: mantenere il proprio spazio decisionale, non essere schiacciati sotto il paradigma di chi può “dire al modello cosa fare”. In una startup con solo cinque dipendenti, questo tipo di dissenso è risultato per Magzimov insostenibile, portando al licenziamento di entrambi i programmatori (uno dei quali era lì da appena una settimana). Da un lato un’azienda che spinge sull’acceleratore dell’automazione; dall’altro due ingegneri che vedono ambigua la direzione imposta.
Non sorprende che sviluppatori esperti, soprattutto coloro che hanno faticato per costruire la loro identità tecnica, mostrino una diffidenza istintiva verso un sistema che pare dare per scontato che basti “dire” il desiderio al modello e attendere che l’IA lo materializzi. Dietro questa riluttanza non c’è solo paura del cambiamento, ma una domanda fondamentale: se l’IA può scrivere codice, cosa rende ancora speciale il valore umano nel software? La risposta appare ambigua e minacciosa per chi, nell’ingegneria, ha sempre visto se stesso come custode del dettaglio, artefice delle risposte tecniche al problema. In questo senso, la resistenza al vibe coding diventa più che una questione strumentale: è una battaglia per la dignità del mestiere.
Le critiche hanno fondamento anche su problemi concreti. Numerose analisi e studi recenti mostrano che il codice generato dall’IA è spesso impreciso, soggetto a allucinazioni, errori semantici, fragilità nei casi limite, e una dipendenza forte dal lavoro di rifinitura umana. Un esperimento di METR ha rivelato che in media gli sviluppatori credono che l’IA li renda più rapidi del 20 %, ma in realtà rallenta il flusso a causa dei continui aggiustamenti necessari. In parallelo, la letteratura emergente sul vibe coding indica che le pratiche di qualità e revisione (QA) vengono spesso sacrificate, che la manutenzione è un punto debole e che la fiducia nell’IA regola il passaggio tra delega e cooperazione.
È dunque comprensibile che chi ha anni di esperienza nella lettura di stack trace, nell’ottimizzazione a mano, nella gestione di sistemi complessi, guardi con sospetto un paradigma che tende a astrarre troppo: con poche righe generate, si smarrisce il contesto globale, la comprensione esaustiva del sistema, la conoscenza tacita accumulata nel tempo. Aggiungi che i modelli di IA hanno una finestra di contesto limitata, che non possono digerire interi basi di codice aziendali, e che molti errori emergono quando si passa da prototipo a scala, e si capisce la natura di questo muro psicologico.
Un altro elemento cruciale è l’età professionale e la cultura tecnica. Come suggerisce uno studio condotto su migliaia di sviluppatori, l’esperienza cambia non l’adozione dell’IA, ma la visione che si ha del ruolo dell’IA: i professionisti più esperti tendono a pensare all’IA come a un collega junior o uno strumento, non come a un maestro. In molti casi, quella che appare come “resistenza” è in realtà un modo per conservare uno spazio critico, un margine decisionale dove poter intervenire quando l’IA sbaglia, correggere direzione, capire le aporie del codice generato.
Questa frizione tra automazione e umanità si inserisce in uno scenario più ampio: viviamo in un’epoca in cui molti ruoli professionali sono messi in discussione dalle AI, e la percezione del “valore umano” viene messa in tensione. All’inizio, per esempio, attori, sceneggiatori, artisti hanno reagito con allarme quando l’IA ha iniziato a generare testi, immagini o musica. Ora quella stessa inquietudine tocca i programmatori: se è possibile “dire” e ottenere, cosa rimane della fatica artigiana del codice? In altre parole, la resistenza non è tecnicamente conservatrice, ma esistenziale.