Az elmúlt években a mesterséges intelligencia (AI) nemcsak az életünk megkönnyítésére szolgált, hanem egyre gyakrabban vált eszközzé a digitális bűnözők kezében is. A Google legfrissebb jelentése rávilágít arra, hogy az AI nem csupán termelékenységi eszközként funkcionál, hanem egyre kifinomultabb, AI-alapú rosszindulatú programok jelennek meg, amelyek képesek önmagukat módosítani és fejlődni.
Az AI sötét oldala: hogyan használják ki a mesterséges intelligenciát rosszindulatú célokra?
A mesterséges intelligencia fejlődése párhuzamosan halad azzal, hogy egyre könnyebben alkalmazható rosszindulatú tevékenységekre. A korábbi problémák között szerepelt például a szerzői jogok figyelmen kívül hagyása vagy gyenge minőségű játékutánzatok létrehozása, de mostanra már olyan fenyegetések is megjelentek, amelyek képesek az áldozat gépének zárolására vagy akár önmaguk átírására is.
A Google legfrissebb jelentése szerint az „ellenfelek” – vagyis a kibertámadók – már nem csupán az AI-t használják termelékenységük növelésére, hanem aktívan telepítenek új, AI-képességekkel rendelkező rosszindulatú programokat. Ez egy új operatív fázist jelöl az AI visszaélésében, ahol a kártevők futás közben dinamikusan változtatják viselkedésüket.
Promptflux: az önmagát átíró malware
A Google különösen egy kártevőcsaládra hívta fel a figyelmet, amely képes futás közben mesterséges intelligenciát alkalmazni arra, hogy módosítsa saját működését. Ez a család Promptflux névre hallgat, és egy úgynevezett „dropper” típusú malware, amely egy Gemini nevű modellt hív segítségül forráskódjának átírásához.
- Működési mechanizmus: A Promptflux arra készteti a Gemini modellt, hogy újraírja saját forráskódját, majd az így létrejött elrejtett (obfuszkált) verziót elmenti a Startup mappába. Ezáltal biztosítja magának a tartós jelenlétet az áldozat számítógépén.
- Evolúciós képesség: Ez azt jelenti, hogy a malware képes „fejlődni”, egyre nehezebben észlelhetővé válik és eltávolíthatóvá válik – hasonlóan egy élő vírushoz.
- Jelenlegi státusz: Szerencsére ez még csak kísérleti fázisban van, és nem találtak bizonyítékot arra, hogy széles körben használnák „vadonban”.
Google és DeepMind válasza: AI harc az AI ellen
A Google nem hagyja figyelmen kívül ezt a fenyegetést. A DeepMind kutatócsoportja felhasználta az ilyen típusú malware-ekből származó tapasztalatokat annak érdekében, hogy megerősítse mind a Google biztonsági osztályozó rendszereit, mind magát az AI modellt.
Ez azt jelenti, hogy a jövőben ezek az AI modellek várhatóan megtagadják majd a segítséget olyan rosszindulatú műveletekhez, amelyek hasonló támadásokhoz vezetnének. Egyszerűbben fogalmazva: az AI harcolni kezd az AI ellen – ez pedig egy fontos lépés lehet a kibertámadások elleni védekezésben.
További ismert AI-alapú malware-ek 2025-ben
A Google 2025-ben további négy olyan esetet dokumentált, ahol mesterséges intelligenciát használó rosszindulatú programok jelentek meg:
- Fruitshell: Egy távoli kapcsolatot létesítő malware, amely képes tetszőleges parancsokat végrehajtani egy fertőzött rendszeren. Különlegessége, hogy úgy tervezték meg, hogy elkerülje az LLM (nagy nyelvi modellek) alapú biztonsági rendszerek felismerését.
- Promptlock: Egy kísérleti fázisban lévő program, amely LLM-et használ rosszindulatú szkriptek generálására és végrehajtására. Képes adatokat kinyerni, fájlokat titkosítani és fájlrendszer-felderítést végezni.
- Promptsteal: Egy adatgyűjtő eszköz, amely API-n keresztül kérdez le LLM-et rövid parancsok generálására. Ezekkel az utasításokkal információkat gyűjt be és lop el dokumentumokat.
- Quietvault: Egy hitelesítő adatlopó malware, amely begyűjti az adatokat és nyilvánosan hozzáférhető GitHub-tárhelyre tölti fel őket. Az AI segítségével fertőzött gépeken keres más potenciális titkok után is.
A jövő kihívásai és lehetőségei
A Google szerint ez az új operatív fázis komoly kihívást jelent: ezek az eszközök képesek futás közben dinamikusan változtatni viselkedésüket, ami megnehezíti azok felismerését és eltávolítását. Ez különösen aggasztó lehet abban az esetben, ha ilyen technológiák rossz kezekbe kerülnek.
Ugyanakkor fontos hangsúlyozni, hogy a Google kiemeli: az AI fejlesztése során egyszerre kell bátraknak és felelősségteljeseknek lennünk. Az átláthatóság és a nyilvános kommunikáció arról, hogyan használják fel szolgáltatásaikat rosszindulatú célokra és hogyan reagálnak ezekre a fenyegetésekre, kulcsfontosságú lépések ebben a folyamatban.
Végül pedig – bár még sci-fi hangzásúnak tűnik –, elképzelhető egy olyan jövő is, ahol nemcsak a malware-ek képesek önmagukat átírni és fejlődni, hanem ugyanilyen adaptív védelmi rendszerek is megjelennek majd. Így akár egyfajta „AI-harc” alakulhat ki a számítógépeink biztonságáért folytatott küzdelemben.
Összegzés
A mesterséges intelligencia rohamos fejlődése új távlatokat nyit mind pozitív mind negatív irányba. Az olyan fejlett fenyegetések mint a Promptflux vagy más AI-alapú malware-ek komoly kihívást jelentenek a biztonsági szakemberek számára. A Google és más technológiai cégek aktív lépései azonban reményt adnak arra, hogy idővel hatékonyan tudjuk kezelni ezeket az új veszélyeket.
Kövesd nyomon legfrissebb híreinket és tippeinket arról, hogyan védd meg magad ebben az egyre összetettebb digitális világban!





