Google scopre i primi malware evolutivi: l’intelligenza artificiale al servizio del crimine
Nemmeno nei sogni più sfrenati avremmo mai pensato virus che, nel momento esatto in cui l'antivirus sta per individuarli, cambiano forma. Si riscrivono da soli, si mascherano e diventano qualcos’altro. Un po’ come un camaleonte digitale che si adatta all’ambiente per non farsi notare. Sembra fantascienza, vero? Eppure non lo è affatto. È ciò che sta accadendo proprio ora, e a dircelo è Google, attraverso un rapporto che segna un punto di svolta: siamo entrati ufficialmente nell’era dei malware “intelligenti”, capaci di usare l’intelligenza artificiale per sopravvivere.
Quando il malware “parla” con l’intelligenza artificiale
Il documento arriva dal Google Threat Intelligence Group (GTIG), la squadra di esperti di sicurezza che analizza ogni giorno le nuove minacce digitali.
E quello che hanno scoperto fa davvero impressione.
Non si tratta più solo di usare l’AI per scrivere più velocemente un virus o per creare email di phishing più convincenti. No.
Quello che stanno osservando è qualcosa di molto più evoluto: malware che dialogano con i modelli di AI, come Gemini o altri, e chiedono in tempo reale come modificarsi per non farsi scoprire.
È come se, nel bel mezzo dell’esecuzione, il virus dicesse all’AI:
“Ehi, l’antivirus mi ha quasi preso. Come posso cambiare aspetto per passare inosservato?”
E la risposta arriva. L’intelligenza artificiale gli fornisce un nuovo codice, un nuovo modo di comportarsi, una nuova identità.
Google chiama tutto questo “just-in-time self-modification” — una modifica “al volo”, fatta all’ultimo secondo, giusto prima di essere catturato.
Le famiglie di malware che inaugurano questa nuova era
Nel suo rapporto, Google parla di cinque famiglie di malware che usano questa tecnica.
Due in particolare meritano attenzione, perché rappresentano un salto di qualità inquietante.
🔸 PROMPTFLUX
È scritto in VBScript, un linguaggio che molti considerano obsoleto, ma che in mani malintenzionate si rivela ancora molto efficace.
Questo virus, ogni ora, invia una richiesta a Gemini e chiede all’AI di riscrivere parti del proprio codice.
Al suo interno c’è un modulo chiamato “Thinking Robot”, una sorta di assistente digitale che invia prompt ben precisi: “offusca questa riga”, “modifica quella funzione”, “cambia la struttura del codice”.
Il risultato è un virus che ogni ora diventa una versione diversa di sé stesso, con una firma completamente nuova e quindi impossibile da riconoscere dai sistemi antivirus tradizionali.
Per fortuna, Google è riuscita a bloccare le API che PROMPTFLUX utilizzava per comunicare con Gemini.
🔸 PROMPTSTEAL
Questo invece è un data miner, cioè un programma pensato per rubare file e informazioni sensibili.
Usa un modello di AI open source chiamato Qwen2.5-Coder, ospitato sulla piattaforma Hugging Face.
È stato individuato in Ucraina e ricondotto al famigerato gruppo russo APT28 (Fancy Bear).
La cosa sconcertante è che PROMPTSTEAL non solo si riscrive, ma chiede all’AI di generare i comandi da eseguire in tempo reale, così da poter adattare il proprio comportamento al contesto del computer infettato.
Gli altri tre malware scoperti sono:
-
FRUITSHELL, una reverse shell in PowerShell che consente il controllo remoto del dispositivo infetto;
-
QUIETVAULT, specializzato nel furto di credenziali da piattaforme come GitHub e NPM;
-
PROMPTLOCK, un ransomware multipiattaforma in grado di cifrare i file e chiedere riscatti.
Quando dietro ci sono gli stati
Non si parla solo di criminali isolati. Google sottolinea che alcuni gruppi legati a governi come Corea del Nord, Iran e Cina stanno già usando l’intelligenza artificiale per scopi tutt’altro che etici.
Non solo per creare malware, ma anche per:
-
fare ricognizione e scegliere gli obiettivi più vulnerabili;
-
scrivere email di phishing quasi indistinguibili da quelle reali;
-
sviluppare codice malevolo più sofisticato;
-
esfiltrare dati in modo più efficiente.
Un esempio lampante arriva dalla Corea del Nord: i loro hacker usano l’AI per creare deepfake di esperti del mondo crypto, così da convincere le vittime a scaricare app infette.
L’obiettivo, neanche a dirlo, è rubare criptovalute per finanziare il regime.
Come riescono a ingannare le intelligenze artificiali
C’è un dettaglio che rende tutto ancora più inquietante: questi hacker non violano i modelli AI, li ingannano.
Usano tecniche di ingegneria sociale applicata ai modelli linguistici, spacciandosi per studenti, ricercatori o partecipanti a competizioni di sicurezza (le famose CTF, Capture The Flag).
In questo modo aggirano i filtri di sicurezza e ottengono dall’AI le risposte che servono, anche quando non dovrebbe fornirle.
Il caso più assurdo?
Un hacker iraniano ha chiesto a Gemini di aiutarlo a “debuggare” un malware.
Peccato che, nel farlo, abbia involontariamente fornito l’indirizzo del proprio server di comando e controllo, lasciando che i ricercatori lo individuassero nel giro di poche ore.
Il nuovo mercato nero dell’intelligenza artificiale
Nel 2025, Google ha osservato un’esplosione del mercato nero di strumenti AI per il cybercrimine.
Nei forum underground, spesso in lingua russa o inglese, si trovano ormai offerte di veri e propri servizi “AI-as-a-Service”: pacchetti con abbonamenti mensili, assistenza via Discord, piani freemium e promesse di risultati “efficienti e ottimizzati”.
Questi strumenti servono per:
-
creare deepfake capaci di ingannare i controlli KYC;
-
generare email di phishing perfette;
-
scrivere malware personalizzati;
-
automatizzare la ricognizione di vulnerabilità.
E il linguaggio delle loro pubblicità? Identico a quello delle aziende legittime.
Si parla di “miglioramento del workflow”, “efficienza”, “supporto clienti”.
Solo che invece di software per produttività, vendono strumenti per rubare dati e denaro.
Le contromisure di Google
Google, da parte sua, non è rimasta a guardare.
Ha bloccato gli account coinvolti, revocato gli accessi alle API di Gemini usate dai malware e rafforzato i controlli sui propri modelli.
Collabora con le autorità e con altre aziende del settore per condividere informazioni e impedire che queste tecniche si diffondano.
L’obiettivo è chiaro: rendere più difficile usare l’AI per scopi malevoli, chiudendo le falle prima che diventino problemi globali.
Cosa cambia per noi
Per l’utente comune, la buona notizia è che — per ora — questi malware restano più che altro prototipi, progetti sperimentali usati da gruppi sofisticati.
La cattiva notizia, però, è che rappresentano il futuro.
I sistemi antivirus basati sulle “firme” non bastano più.
Servono soluzioni che analizzano il comportamento dei programmi, perché quando un software comincia a parlare con un’AI esterna o si replica in luoghi strani del sistema, qualcosa non va.
È l’inizio di una nuova fase: una battaglia tra intelligenze artificiali, dove l’AI difensiva dovrà imparare a riconoscere e anticipare quella offensiva.
E noi utenti, volenti o nolenti, saremo il campo di battaglia.
Che ne pensiamo qui in Jackalope.it
Non esageriamo se affermiamo che siamo davanti a una svolta epocale.
Per anni abbiamo visto l’intelligenza artificiale usata per potenziare gli attacchi informatici, ma adesso siamo oltre: l’AI è dentro il malware, ne diventa parte viva e reattiva.
La cosa che troviamo più preoccupante non è tanto la complessità tecnica, che è ancora gestibile, quanto la velocità con cui si sta abbassando la barriera d’ingresso.
Con un mercato nero così sviluppato, anche chi ha poche competenze può accedere a strumenti di livello professionale. È la democratizzazione del cybercrimine, e non è un bel traguardo.
Nel breve periodo, le buone abitudini restano le stesse: non cliccare link sospetti, tenere tutto aggiornato, usare antivirus affidabili.
Ma nel medio-lungo termine dovremo convivere con sistemi di difesa basati sull’AI, capaci di imparare, prevedere e reagire autonomamente.
La risposta di Google è stata giusta e tempestiva, ma non basta che un singolo colosso reagisca.
Serve una regolamentazione internazionale sull’uso dell’intelligenza artificiale nei sistemi di sicurezza, perché se un modello viene chiuso, un altro verrà usato.
PROMPTSTEAL ne è la prova: non ha scelto Gemini, ma un modello open source su Hugging Face.
Il consiglio che ci sentiamo di suggerire è semplice: osserva i comportamenti del tuo computer.
Se noti programmi che comunicano troppo, attività in background inspiegabili, richieste di permessi strani… non ignorarle.
E soprattutto, affidati solo ad applicazioni AI di provenienza certa, perché il rischio di backdoor nascoste cresce ogni giorno.
Fonti:
-
Tom’s Hardware – Google scopre malware con AI che si riscrive da solo
-
Google Cloud Blog – GTIG AI Threat Tracker: Advances in Threat Actor Usage of AI Tools
-
Google Safety Blog – A new report from the Google Threat Intelligence Group
-
The Hacker News – Google Uncovers PROMPTFLUX Malware That Uses Gemini AI to Rewrite Its Code Hourly
-
BleepingComputer – Google warns of new AI-powered malware families deployed in the wild
-
Punto Informatico – Google scopre cinque malware AI sperimentali
-
SiliconANGLE – Google warns that a new era of self-evolving, AI-driven malware has begun