Pericoli legati all'intelligenza artificiale: i criminali informatici utilizzano modelli linguistici per il furto di criptovalute!
I criminali informatici utilizzano malware basati sull’intelligenza artificiale per rubare criptovalute. Google avverte delle minacce attuali e rafforza le misure di sicurezza.

Pericoli legati all'intelligenza artificiale: i criminali informatici utilizzano modelli linguistici per il furto di criptovalute!
Un recente rapporto del Google Threat Intelligence Group evidenzia una tendenza preoccupante nel crimine informatico, con i criminali informatici che utilizzano sempre più modelli linguistici di grandi dimensioni (LLM) per rendere il malware più intelligente e flessibile. Il documento, i cui dettagli possono essere trovati su Crypto News, segnala cinque diverse famiglie di malware basati sull'intelligenza artificiale progettati specificamente per prendere di mira obiettivi di alto valore come le criptovalute.
Le nuove famiglie di malware possono riscriversi in tempo reale, utilizzando LLM come i codificatori Gemini e Qwen2.5 per generare, modificare o nascondere codice dannoso. Ciò rappresenta un progresso significativo poiché il malware è ora in grado di adattare dinamicamente il proprio comportamento.
Tecniche e modelli di attacco
Un esempio notevole di questo sviluppo è la famiglia di malware PROMPTFLUX, che utilizza un cosiddetto processo di “robot pensante”. Questo processo chiama l'API di Gemini ogni ora per aggiornare il suo codice VBScript. Un'altra famiglia, PROMPTSTEAL, associata al gruppo russo APT28, utilizza il modello Qwen su Hugging Face per generare i comandi Windows richiesti. Questo metodo di “creazione di codice just-in-time” rappresenta un cambiamento significativo rispetto al malware tradizionale che segue una logica codificata.
I rapporti mostrano che questi attacchi guidati dall’intelligenza artificiale sono già attivi e mirano specificamente ad asset costosi come le criptovalute. Un aspetto particolarmente preoccupante è l’identità degli autori: il gruppo nordcoreano UNC1069, noto anche come Masan, utilizza tecnologie IA per effettuare furti di criptovalute. Abusano di queste tecnologie per interrogare portafogli crittografici, creare script di phishing e sviluppare attacchi mirati di ingegneria sociale.
Google sta rispondendo alla minaccia
Google è già intervenuta in risposta a questa minaccia. La società ha disabilitato gli account associati alle attività di cui sopra e ha implementato misure di sicurezza più rigorose. Ciò include meccanismi di monitoraggio API migliorati e filtri più rapidi per rilevare e mitigare potenziali attacchi.
Gli sviluppi nel malware basato sull’intelligenza artificiale non solo sollevano interrogativi sulla sicurezza informatica, ma evidenziano anche l’urgenza di essere consapevoli di queste minacce e di intraprendere azioni adeguate. La combinazione di tecnologia avanzata e attività criminale potrebbe portare a lungo termine a perdite significative nel settore degli asset digitali.