Nemrégiben egy biztonsági kutató, Jeremiah Fowler olyan adatbázist tárt fel, amely több mint egymillió, mesterséges intelligencia által generált képet és videót tartalmazott, és ezek bárki számára hozzáférhetőek voltak az interneten. A WIRED által is bemutatott kutatás szerint a képek túlnyomó többsége meztelenséget és felnőtt tartalmat ábrázolt, ráadásul néhány esetben gyermekek arcát helyezték át AI által létrehozott meztelen testekre – ami különösen aggasztó.
Hogyan derült fény a hatalmas adatbázisra?
Jeremiah Fowler októberben fedezte fel ezt a biztonsági rést, amely több weboldal – például a MagicEdit és a DreamPal – által használt közös, de védtelen adatbázishoz vezetett. Az adatbázis naponta körülbelül 10 ezer új képpel bővült, ami jól mutatja, milyen aktívan használják ezeket az AI-alapú képalkotó és szerkesztő eszközöket.
A legszélsőségesebb esetekben valódi emberek fotói is szerepeltek az adatbázisban, akiknek az arcát engedély nélkül „meztelenítették” vagy más testekre cserélték. Ez a gyakorlat nemcsak etikailag kifogásolható, de jogilag is súlyos problémákat vet fel.
A legnagyobb probléma: ártatlan emberek és kiskorúak képeinek visszaélése
“A valódi gond az, hogy ártatlan emberek, különösen kiskorúak képeit használják fel beleegyezésük nélkül szexuális tartalom létrehozására” – mondja Fowler, aki már több hasonlóan védtelen AI-adatbázist talált idén. Ezek mindegyike nemkívánatos explicit képeket tartalmazott, köztük fiatalokról és gyermekekről készült anyagokat is.
Az AI-képalkotás sötét oldala: a „nudify” szolgáltatások
A mesterséges intelligencia alapú képalkotó eszközök rohamos fejlődése nemcsak pozitív lehetőségeket hozott magával. Egy egész iparág épült arra, hogy fotókról „levegyék” a ruhát – főleg nőkről –, gyakran anélkül, hogy az érintettek tudnának róla vagy beleegyeztek volna.
Ezek a „nudify” szolgáltatások milliókat érnek meg évente, és milliók használják őket világszerte. A közösségi médiából ellopott fotók pár kattintással manipulálhatók, ami komoly visszaélésekhez és zaklatáshoz vezet. Az elmúlt évben ráadásul megduplázódott azoknak az eseteknek a száma is, amikor bűnözők AI-t használnak gyermekpornográf anyagok előállítására.
A startupok reakciója és felelősségvállalás
A MagicEditet és DreamPalt működtető DreamX startup szóvivője szerint nagyon komolyan veszik ezeket az aggályokat. Ugyanakkor hangsúlyozzák, hogy az adatbázishoz kapcsolódó influencer marketing cég, a SocialBook egy teljesen különálló jogi entitásként működik, amely nem vesz részt a képalkotó oldalak üzemeltetésében.
SocialBook állítása szerint: „Nem kapcsolódunk az említett adatbázishoz, nem használjuk azt tárolásra, és soha nem vettünk részt annak működtetésében vagy kezelésében.”
Ezzel együtt is világos: az ilyen biztonsági hibák súlyos következményekkel járhatnak mind az érintettek személyiségi jogaira nézve, mind pedig a vállalatok hírnevére nézve.
Mire tanít minket ez az eset?
Ez a botrány rávilágít arra, hogy az AI-technológiák fejlődése mellett mennyire elengedhetetlen a megfelelő adatvédelem és etikai szabályozás. Nem lehet csak úgy hagyni, hogy személyes képek kerüljenek ki ellenőrizetlenül egy nyilvános adatbázisba – főleg ha azok olyan érzékeny tartalmakat hordoznak, amelyek visszaélésekhez vezethetnek.
Szerinted meddig mehet el az AI-képalkotás anélkül, hogy komolyabb szabályozást kapna? És vajon milyen lépések szükségesek ahhoz, hogy megvédjük magunkat és szeretteinket az ilyen jellegű visszaélésektől?
Az biztos: ha nem figyelünk oda jobban ezekre a technológiákra és azok biztonságára, könnyen válhatunk áldozattá egy-egy rosszindulatú manipulációnak.






