Immagine AI

Nel mondo in continua evoluzione della sicurezza informatica, un annuncio appena diramato ha suscitato grande attenzione: ESET, noto fornitore di soluzioni anti‑malware, ha identificato quella che potrebbe essere “il primo ransomware basato su intelligenza artificiale”, che per ora rimane a livello di prova di concetto (PoC), ma che apre scenari inquietanti e nuove riflessioni sul futuro delle cyber‑minacce.

Battezzata “PromptLock”, questa nuova forma di ransomware sfrutta le capacità di coding avanzate offerte dai modelli linguistici per generare automaticamente uno script malevolo direttamente sul dispositivo della vittima. In particolare, il malware utilizza Ollama, un’interfaccia API che consente l’esecuzione di modelli OpenAI come GPT‑OSS‑20B, il quale deve essere installato localmente perché il meccanismo funzioni.

In pratica, chi crea il malware fornisce un prompt al modello, che genera uno script — scritto in Lua, noto per la sua leggerezza e versatilità — il quale, una volta eseguito, esamina il file system, seleziona dati da cifrare e attiva il processo di ricatto digitale. Fortunatamente, al momento non risulta implementata alcuna funzionalità di cancellazione dei dati.

Ci sono almeno due aspetti che rendono PromptLock interessante — e al contempo preoccupante — dal punto di vista della sicurezza informatica:

  • Variabilità nelle risposte dell’LLM
    A causa della natura stessa dei modelli di linguaggio, anche inviando lo stesso prompt più volte sullo stesso dispositivo, è possibile ottenere risultati leggermente diversi. Questo rende estremamente difficile per i sistemi di difesa standard rilevare o bloccare in modo efficace il malware, poiché gli script generati non risultano identici.
  • Esecuzione “on‑device”
    L’uso esclusivamente locale del modello implica che nemmeno OpenAI potrebbe rintracciare o monitorare l’attività malevola. Questo isolamento rende il malware più sfuggente agli attacchi di tracciamento e contrasto a livello infrastrutturale.

ESET specifica che, almeno al momento, PromptLock è piuttosto una dimostrazione teorica o un esperimento controllato, non ancora una minaccia attiva in natura. L’obiettivo dichiarato dell’azienda — oltre a mettere in guardia la comunità — è proprio condividere questa scoperta per stimolare una riflessione sulla necessità di soluzioni di difesa più sofisticate.

Anche in questa fase embrionale, PromptLock offre uno spaccato così nuovo da far suonare il campanello d’allarme:

  • IA come arma passiva o attiva
    Fino ad oggi, l’IA è stata usata per supportare attacchi — come generare phishing o aiutare nella codifica. Ora, si assiste alla possibilità di attacchi in cui il codice malevolo viene creato interamente “sul luogo del crimine”, rendendo gli attacchi più dinamici e meno rintracciabili.
  • Difesa inadeguata
    Le contromisure tradizionali, basate su firme statiche o modelli riconoscibili, devono rapidamente evolvere. Serviranno strumenti capaci di riconoscere comportamenti sospetti anche quando il codice è in continuo cambiamento.
  • Responsabilità condivisa e collaborazione
    Diventa fondamentale che aziende di cybersecurity, sviluppatori di modelli IA, enti regolatori e comunità accademiche collaborino per anticipare queste evoluzioni. Solo un’azione concertata potrà arginare le potenziali derivazioni pericolose.

Di Fantasy