Het dreigingsteam van Google waarschuwde onlangs dat AI-malware nu grote taalmodellen gebruikt tijdens runtime om verhulde code te maken die zich richt op crypto wallets en phishingstromen, een gevaar dat op 7 november 2025 werd benadrukt.
Summary
Hoe maakt AI-malware misbruik van LLM-aangedreven technieken en het misbruik van het Gemini-model?
Google onderzoekers zeggen dat aanvallers modellen zoals Gemini aanroepen tijdens de uitvoering om just-in-time code en ontwijkende payloads te produceren. Het rapport documenteert dat PROMPTFLUX een “Thinking Robot” routine gebruikt die Gemini elk uur oproept om VBScript payloads te herschrijven, wat handtekening-gebaseerde detectie bemoeilijkt en geavanceerde verhulling mogelijk maakt.
Daardoor zetten deze llm-aangedreven malwaretactieken statische scripts om in adaptieve toolkits, en vinden verdedigers traditionele heuristieken minder effectief. ALERT-maatregelen zoals het monitoren van uitgaande model-API-aanroepen worden nu steeds crucialer.
Wat verbindt deze technieken met DPRK crypto diefstal en wallet data exfiltratie?
Google identificeerde ten minste vijf ai-aangedreven malwarefamilies, waaronder PROMPTFLUX en PROMPTSTEAL, plus activiteiten toegeschreven aan UNC1069 (Masan).
De analyse toont aan dat PROMPTSTEAL het Qwen-model, gehost op Hugging Face, gebruikt om Windows-commando’s te genereren, terwijl UNC1069 Gemini misbruikte om wallet applicatiegegevens te lokaliseren, scripts te maken om toegang te krijgen tot versleutelde opslag en meertalige phishing scripts te genereren gericht op uitwisselingspersoneel.
In deze context kunnen runtime model queries direct wallet data exfiltratie en token harvesting mogelijk maken. Dat gezegd hebbende, de koppeling van deze methoden aan DPRK-campagnes onderstreept het aanhoudende geopolitieke risico in crypto-gerichte inbraken.
Welke praktische stappen moeten verdedigers en investeerders nemen?
Verdedigers moeten just-in-time code als hoog risico behandelen en detectieregels voor prompt-gedreven modules bijwerken. Op 7 november 2025 werden teams aangespoord om abnormale uitgaande verzoeken te volgen, model-API-gebruik te loggen en gedragsanalyses toe te passen om LLM-geassisteerde fasen vroegtijdig te herkennen.
Google heeft verklaard dat het de accounts die aan deze activiteiten zijn gekoppeld heeft uitgeschakeld en de toegangsbeveiliging voor modellen heeft aangescherpt; zie het Google Threat Intelligence Group rapport voor details. Voor custodial en non-custodial diensten is de KRITIEKE conclusie een uitgebreid aanvalsoppervlak en de DRINGENDE noodzaak om endpoint-telemetrie, patching en wallet hygiëne te versterken.
Twee experts merken de operationele verschuiving op: een beschreef de evolutie als een verschuiving van vaste binaries naar dynamische, API-gedreven modules, en een ander waarschuwde dat meertalige phishing-lokmiddelen veel overtuigender worden wanneer ze tijdens runtime worden gemaakt (Google GTIG en Decrypt). WAARSCHUWING: het delen van dreigingsinformatie en snelle incidentrespons blijven doorslaggevende mitigaties.
Handhaaf gelaagde verdedigingen, log model-API-aanroepen en geef prioriteit aan de detectie van PROMPTFLUX- en PROMPTSTEAL-achtige gedragingen om post-inbraak analyse te verbeteren en blootstelling te verminderen.

