PromptLock: il primo ransomware che usa l’AI per attaccare

Si chiama PromptLock ed è un ransomware che genera il proprio codice malevolo in tempo reale sfruttando l’intelligenza artificiale. È stato scoperto dai ricercatori di ESET. Utilizza il modello open source di OpenAI per creare script dannosi al volo, adattandosi a Windows, macOS e Linux. Per ora è solo un prototipo, ma segna l’inizio di una nuova era: quella in cui non serve più essere programmatori esperti per creare attacchi informatici devastanti.
Allarme cybersecurity: l’AI genera ransomware autonomi con PromptLockPromptLock scarica localmente il modello gpt-oss:20b tramite l’API Ollama e lo usa per generare script Lua malevoli personalizzati per ogni vittima. Il sistema scansiona i file del computer colpito, identifica quelli di maggior valore e decide autonomamente se rubarli, crittografarli o distruggerli.
#ESETResearch has discovered the first known AI-powered ransomware, which we named #PromptLock. The PromptLock malware uses the gpt-oss:20b model from OpenAI locally via the Ollama API to generate malicious Lua scripts on the fly, which it then executes 1/6 pic.twitter.com/wUZS7Fviwi
— ESET Research (@ESETresearch) August 26, 2025
L’uso di gpt-oss:20b, un modello open source, è particolarmente preoccupante. Non serve accesso a sistemi proprietari costosi o account verificati. Chiunque può scaricare il modello e iniziare a sperimentare. OpenAI e altre aziende cercano di implementare guardrail etici nei loro modelli commerciali, ma i modelli open source sono il Far West. Nessun controllo, nessuna limitazione, solo codice che chiunque può modificare e utilizzare come vuole.
È la realizzazione di un incubo che gli esperti di sicurezza temevano da tempo. L’AI che abbassa drasticamente la barriera d’ingresso al cybercrime. Prima servivano anni di studio per scrivere un ransomware efficace. Ora basta sapere come formulare le giuste richieste a un modello linguistico.
I ricercatori di ESET sottolineano che PromptLock presenta diversi elementi che indicano si tratti di un proof of concept o di un progetto in sviluppo
. Non è ancora un’arma attiva nell’arsenale dei criminali informatici. Ma è proprio questo che lo rende terrificante, dimostra che la tecnologia esiste e funziona.
Il vero problema dei malware potenziati dall’AI non è solo la facilità di creazione. È l’imprevedibilità. I modelli linguistici generano output diversi anche partendo dallo stesso prompt, rendendo ogni attacco unico e difficile da anticipare.
Le tradizionali difese informatiche si basano sul riconoscimento di pattern: firme di virus, comportamenti sospetti, sequenze di codice note. Ma come difendersi da un nemico che cambia forma ogni volta?
Altri ricercatori hanno dimostrato che i modelli linguistici possono già simulare attacchi informatici complessi senza intervento umano. Un’AI può pianificare un’intrusione, sfruttare vulnerabilità, muoversi lateralmente in una rete, tutto autonomamente.
Ma c’è un lato positivo, almeno secondo gli ottimisti del settore. La stessa tecnologia che potenzia gli attacchi può rafforzare le difese. AI che combattono altre AI. I ricercatori vogliono essere rassicuranti, la minaccia non è immediata e lo studio di queste tecniche può aiutare a sviluppare difese migliori.
Punto Informatico