Nemrég egy meglepő kezdeményezésről érkeztek hírek a tech világából, ami szerintem sokakat meg fog lepni. Egy névtelen csoport, amelyben állítólag nagy amerikai techcégek alkalmazottai is részt vesznek, arra szólít fel, hogy mérgezzük meg azokat az adatokat, amelyeket a mesterséges intelligencia (AI) rendszerek tanulásra használnak. Ez a mozgalom Poison Fountain néven fut, és már körülbelül egy hete aktív.
Mi is az a Poison Fountain?
A Poison Fountain lényege egyszerűnek tűnik, de annál radikálisabb: weboldal-tulajdonosokat kérnek fel arra, hogy olyan linkeket helyezzenek el az oldalaikon, amelyek szándékosan hibás vagy félrevezető adatokat tartalmaznak. Ezeket az adatokat aztán az AI-képző rendszerek „beolvassák” (webcrawlerek segítségével), és beépítik a tanulási folyamataikba. A cél? Megmérgezni az AI-kat, hogy azok minősége romoljon, és így lassítsák vagy akár megállítsák a technológia további terjedését.
Hogyan működik az AI tanulása és miért lehet ezt kihasználni?
Az AI-képző modellek hatalmas mennyiségű nyilvánosan elérhető adatot gyűjtenek össze az internetről – cikkeket, kódokat, képeket –, majd ezekből tanulnak. Ez egyfajta parazita kapcsolat: az AI rendszerek „szívják” az információt a weboldalakról. Ha ezek az adatok pontosak és megbízhatóak, akkor az AI is jó válaszokat tud adni. De ha rossz minőségű vagy szándékosan félrevezető adatok kerülnek be, akkor a modell teljesítménye romlik.
Ez nem új jelenség: léteznek már korábbi példák is az úgynevezett adatmérgezésre. Például a „Silent Branding” támadás során képadatbázisokat manipuláltak úgy, hogy márkák logói jelentek meg váratlan módon a generált képekben. Fontos azonban különbséget tenni: ez nem ugyanaz, mint amikor valaki ChatGPT-től kap diétás tanácsot és emiatt kórházba kerül – itt ténylegesen a tanító adatok manipulációjáról van szó.
A Poison Fountain háttere és céljai
A kezdeményezést egy anonim forrás hozta nyilvánosságra a The Registernek. A személy „nyilvánvaló okokból” nem vállalta a nevét, de állítása szerint egy nagy amerikai techcég alkalmazottja. Szerinte az egész projekt célja rámutatni arra, hogy az AI rendszerek Achilles-sarka éppen ez a könnyen kihasználható sebezhetőség: az adatmérgezés lehetősége.
A Poison Fountain weboldala nyíltan vállalja álláspontját: idézik Geoffrey Hintont, aki szerint a gépi intelligencia komoly fenyegetést jelenthet az emberiségre nézve. A honlap arra buzdítja látogatóit, hogy segítsenek „háborús erőfeszítésükben” – vagyis mérgezett adatokat tároljanak és továbbítsanak webcrawlerek számára.
Két URL-t is megadnak: egy hagyományos HTTP-s oldalt és egy .onion végződésű darknet címet, amelyet nehezebb leállítani vagy blokkolni. A mérgezett adatok között például hibás kódok vannak apró logikai bakikkal és bugokkal, amelyek célja kifejezetten a nyelvi modellek megtévesztése és rontása.
Milyen hatással lehet mindez?
A forrás szerint Hinton figyelmeztetései jogosak, és bár sokan még nem érzékelik a helyzet súlyosságát, a technológia rohamosan fejlődik – olyannyira, hogy már most aggódnak amiatt is, mit építenek ügyfeleik. Bár konkrét példákat nem árult el, azt hangsúlyozta: ez nem csupán szakmai vita vagy szabályozási kérdés; ennél sokkal többről van szó.
Az iparági reakciók és szabályozási dilemmák
Míg olyan neves szakemberek mint Geoffrey Hinton vagy szervezetek mint a Stop AI és az Algorithmic Justice League évek óta hangot adnak aggodalmaiknak az AI fejlődésével kapcsolatban, a szabályozás még mindig gyerekcipőben jár – különösen Amerikában. Érdekességként megjegyzendő, hogy az AI cégek jelentős összegeket költenek lobbi tevékenységre annak érdekében, hogy ez így is maradjon.
A Poison Fountain mögött állók viszont úgy vélik: már késő szabályozásban bízni. A technológia széles körben elérhetővé vált világszerte; ezért inkább „tűzzel vagy mérgezéssel” akarják megállítani azt – legalábbis amíg még lehet.
“A mérgezési támadások aláássák a modell kognitív integritását,” mondta forrásunk. “Nem lehet megállítani ezt a technológiát most már globálisan elterjedt formájában. Ami marad: fegyverek.”
Milyen más hasonló kezdeményezések léteznek?
Bár többféle adatmérgezési projekt is létezik, nem mindegyik célja embermentő vagy etikus. Egyesek inkább átverésekből próbálnak hasznot húzni. Az egyik leginkább összevethető kezdeményezés talán a Nightshade nevű szoftver, amely művészek online képeinek védelmét szolgálja az AI crawlerekkel szemben.
Az AI modellek romlása – önmagát gerjesztő probléma
Érdekes paradoxon, hogy már most is vannak jelei annak, hogy az AI modellek minősége romlik. Ez részben azért van így, mert egyfajta „hibás visszacsatolási hurokban” vannak: saját maguk által generált szintetikus adatokkal táplálják magukat (ezt hívják model collapse-nek). Minden téves információ vagy hamis állítás tovább rontja ezt a helyzetet.
Ezért is igyekeznek például olyan megbízható forrásokkal együttműködni mint a Wikipédia – ahol van valamilyen szerkesztői kontroll –, hogy javítsák az adatok minőségét.
Adatmérgezés vs. álhírek – hol húzódik a határ?
A data poisoning és a dezinformációs kampányok között gyakran elmosódik a határvonal. Ahogy egy friss NewsGuard-jelentés rámutatott (2025 augusztus), az AI modellek ma már gyakran egy „szennyezett” online információs ökoszisztémából dolgoznak – ahol akár rosszindulatú szereplők által szándékosan terjesztett álhírek is befolyásolják őket.
Egyes kutatók szerint ez hosszú távon komoly problémákat okozhat; egy friss tanulmány például azt jósolja, hogy akár már 2035-re bekövetkezhet egy olyan „önpusztító” folyamat az AI rendszereknél, amikor saját maguk által generált hibák miatt omlanak össze.
Mi vár ránk? Gyorsuló hanyatlás vagy új remény?
Bár mindenki attól tart, hogy milyen veszélyeket rejt magában az AI fejlődése, elképzelhető, hogy ha valóban beindul egy ilyen adatmérgezési mozgalom mint a Poison Fountain, akkor gyorsabban érkezhet el az AI-lufi kipukkanása is – ami akár csökkentheti is a technológia fenyegetéseit.
Szerinted van értelme ilyen radikális eszközökhöz nyúlni? Vagy inkább szabályozással és etikus fejlesztéssel kellene megálljt parancsolni ennek a robbanásszerű fejlődésnek? Egy biztos: ahogy nő az AI szerepe mindennapjainkban, úgy lesz egyre fontosabb erről beszélni – mielőtt túl késő lenne.
Forrás: https://www.theregister.com/2026/01/11/industry_insiders_seek_to_poison/






