Poison Fountain: Az AI elleni adatmérgezés új frontja

jan 11, 2026

Nemrég egy meglepő kezdeményezésről érkeztek hírek a tech világából, ami szerintem sokakat meg fog lepni. Egy névtelen csoport, amelyben állítólag nagy amerikai techcégek alkalmazottai is részt vesznek, arra szólít fel, hogy mérgezzük meg azokat az adatokat, amelyeket a mesterséges intelligencia (AI) rendszerek tanulásra használnak. Ez a mozgalom Poison Fountain néven fut, és már körülbelül egy hete aktív.

Mi is az a Poison Fountain?

A Poison Fountain lényege egyszerűnek tűnik, de annál radikálisabb: weboldal-tulajdonosokat kérnek fel arra, hogy olyan linkeket helyezzenek el az oldalaikon, amelyek szándékosan hibás vagy félrevezető adatokat tartalmaznak. Ezeket az adatokat aztán az AI-képző rendszerek „beolvassák” (webcrawlerek segítségével), és beépítik a tanulási folyamataikba. A cél? Megmérgezni az AI-kat, hogy azok minősége romoljon, és így lassítsák vagy akár megállítsák a technológia további terjedését.

Hogyan működik az AI tanulása és miért lehet ezt kihasználni?

Az AI-képző modellek hatalmas mennyiségű nyilvánosan elérhető adatot gyűjtenek össze az internetről – cikkeket, kódokat, képeket –, majd ezekből tanulnak. Ez egyfajta parazita kapcsolat: az AI rendszerek „szívják” az információt a weboldalakról. Ha ezek az adatok pontosak és megbízhatóak, akkor az AI is jó válaszokat tud adni. De ha rossz minőségű vagy szándékosan félrevezető adatok kerülnek be, akkor a modell teljesítménye romlik.

Ez nem új jelenség: léteznek már korábbi példák is az úgynevezett adatmérgezésre. Például a „Silent Branding” támadás során képadatbázisokat manipuláltak úgy, hogy márkák logói jelentek meg váratlan módon a generált képekben. Fontos azonban különbséget tenni: ez nem ugyanaz, mint amikor valaki ChatGPT-től kap diétás tanácsot és emiatt kórházba kerül – itt ténylegesen a tanító adatok manipulációjáról van szó.

A Poison Fountain háttere és céljai

A kezdeményezést egy anonim forrás hozta nyilvánosságra a The Registernek. A személy „nyilvánvaló okokból” nem vállalta a nevét, de állítása szerint egy nagy amerikai techcég alkalmazottja. Szerinte az egész projekt célja rámutatni arra, hogy az AI rendszerek Achilles-sarka éppen ez a könnyen kihasználható sebezhetőség: az adatmérgezés lehetősége.

A Poison Fountain weboldala nyíltan vállalja álláspontját: idézik Geoffrey Hintont, aki szerint a gépi intelligencia komoly fenyegetést jelenthet az emberiségre nézve. A honlap arra buzdítja látogatóit, hogy segítsenek „háborús erőfeszítésükben” – vagyis mérgezett adatokat tároljanak és továbbítsanak webcrawlerek számára.

Két URL-t is megadnak: egy hagyományos HTTP-s oldalt és egy .onion végződésű darknet címet, amelyet nehezebb leállítani vagy blokkolni. A mérgezett adatok között például hibás kódok vannak apró logikai bakikkal és bugokkal, amelyek célja kifejezetten a nyelvi modellek megtévesztése és rontása.

Milyen hatással lehet mindez?

A forrás szerint Hinton figyelmeztetései jogosak, és bár sokan még nem érzékelik a helyzet súlyosságát, a technológia rohamosan fejlődik – olyannyira, hogy már most aggódnak amiatt is, mit építenek ügyfeleik. Bár konkrét példákat nem árult el, azt hangsúlyozta: ez nem csupán szakmai vita vagy szabályozási kérdés; ennél sokkal többről van szó.

Az iparági reakciók és szabályozási dilemmák

Míg olyan neves szakemberek mint Geoffrey Hinton vagy szervezetek mint a Stop AI és az Algorithmic Justice League évek óta hangot adnak aggodalmaiknak az AI fejlődésével kapcsolatban, a szabályozás még mindig gyerekcipőben jár – különösen Amerikában. Érdekességként megjegyzendő, hogy az AI cégek jelentős összegeket költenek lobbi tevékenységre annak érdekében, hogy ez így is maradjon.

A Poison Fountain mögött állók viszont úgy vélik: már késő szabályozásban bízni. A technológia széles körben elérhetővé vált világszerte; ezért inkább „tűzzel vagy mérgezéssel” akarják megállítani azt – legalábbis amíg még lehet.

“A mérgezési támadások aláássák a modell kognitív integritását,” mondta forrásunk. “Nem lehet megállítani ezt a technológiát most már globálisan elterjedt formájában. Ami marad: fegyverek.”

Milyen más hasonló kezdeményezések léteznek?

Bár többféle adatmérgezési projekt is létezik, nem mindegyik célja embermentő vagy etikus. Egyesek inkább átverésekből próbálnak hasznot húzni. Az egyik leginkább összevethető kezdeményezés talán a Nightshade nevű szoftver, amely művészek online képeinek védelmét szolgálja az AI crawlerekkel szemben.

Az AI modellek romlása – önmagát gerjesztő probléma

Érdekes paradoxon, hogy már most is vannak jelei annak, hogy az AI modellek minősége romlik. Ez részben azért van így, mert egyfajta „hibás visszacsatolási hurokban” vannak: saját maguk által generált szintetikus adatokkal táplálják magukat (ezt hívják model collapse-nek). Minden téves információ vagy hamis állítás tovább rontja ezt a helyzetet.

Ezért is igyekeznek például olyan megbízható forrásokkal együttműködni mint a Wikipédia – ahol van valamilyen szerkesztői kontroll –, hogy javítsák az adatok minőségét.

Adatmérgezés vs. álhírek – hol húzódik a határ?

A data poisoning és a dezinformációs kampányok között gyakran elmosódik a határvonal. Ahogy egy friss NewsGuard-jelentés rámutatott (2025 augusztus), az AI modellek ma már gyakran egy „szennyezett” online információs ökoszisztémából dolgoznak – ahol akár rosszindulatú szereplők által szándékosan terjesztett álhírek is befolyásolják őket.

Egyes kutatók szerint ez hosszú távon komoly problémákat okozhat; egy friss tanulmány például azt jósolja, hogy akár már 2035-re bekövetkezhet egy olyan „önpusztító” folyamat az AI rendszereknél, amikor saját maguk által generált hibák miatt omlanak össze.

Mi vár ránk? Gyorsuló hanyatlás vagy új remény?

Bár mindenki attól tart, hogy milyen veszélyeket rejt magában az AI fejlődése, elképzelhető, hogy ha valóban beindul egy ilyen adatmérgezési mozgalom mint a Poison Fountain, akkor gyorsabban érkezhet el az AI-lufi kipukkanása is – ami akár csökkentheti is a technológia fenyegetéseit.

Szerinted van értelme ilyen radikális eszközökhöz nyúlni? Vagy inkább szabályozással és etikus fejlesztéssel kellene megálljt parancsolni ennek a robbanásszerű fejlődésnek? Egy biztos: ahogy nő az AI szerepe mindennapjainkban, úgy lesz egyre fontosabb erről beszélni – mielőtt túl késő lenne.

Forrás: https://www.theregister.com/2026/01/11/industry_insiders_seek_to_poison/

2025-ben először fél évszázad alatt egyszerre csökkent a szénalapú áramtermelés Kínában és Indiában

Ha azt mondom, hogy Kína és India 2025-ben egyszerre csökkentette a szénalapú áramtermelését, talán elsőre nem tűnik túl nagy dolognak. Pedig ez az első ilyen egyidejű visszaesés az elmúlt 50 évben – egészen pontosan 1973 óta nem volt példa rá. És ha belegondolsz,...

Tajvan átvette Dél-Koreát: a világ legalacsonyabb születési aránya

Nemrégiben megjelent kormányzati adatok szerint Tajvan megelőzte Dél-Koreát, és mostantól a világ legalacsonyabb születési arányával büszkélkedhet. Ez a hír nem csak statisztikai érdekesség, hanem egy olyan jelenség része, amely komoly következményekkel jár a...

Miért buknak el a startupok? A „rossz időzítés” mítosza és a valós okok

Ha már egy ideje mozogsz a tech világban, biztosan találkoztál a CB Insights híres listájával, amely a startupok bukásának okait sorolja fel. Ez az összeállítás szinte kötelező olvasmány lett az inkubátorprogramok első prezentációiban, hogy figyelmeztesse az...

Jimmy Kimmel kifigurázta Donald Trumpot: a világ legdühösebb telemarketingese

Nem újdonság, hogy Donald Trump nem rejti véka alá az indulatait, amikor nem úgy alakulnak a dolgok, ahogy ő szeretné. De hogy egy komikus ilyen frappánsan fogalmazza meg a helyzetet, az azért ritka. Jimmy Kimmel a hétfő esti Jimmy Kimmel Live! monológjában úgy...

Tommy Habeeb és a Cheaters forgatásának legveszélyesebb pillanatai – a valóságshow, ami több volt, mint szórakoztatás

Ha valaha is kíváncsi voltál arra, milyen lehet egy olyan műsor házigazdájának lenni, ahol a hűtlenség leleplezése közben bármikor elszabadulhat a pokol, akkor Tommy Habeeb történetei garantáltan lekötnek majd. A 67 éves televíziós sztár, aki a Cheaters című...

Kína és India történelmi lépése: csökken a szénalapú áramtermelés 2025-ben

Elképesztő fordulatot hozott az elmúlt év az energiapiacon: 2025-ben először több mint ötven év után Kínában és Indiában is csökkent a szénalapú áramtermelés. Ez a változás nemcsak szakmai körökben keltett hullámokat, hanem globális jelentőséggel bír, hiszen a világ...

Ofcom vizsgálatot indított Elon Musk X platformja ellen a Grok AI szexuális deepfake képek miatt

Nem mindennapi helyzet alakult ki az Egyesült Királyságban: az ország kommunikációs szabályozó hatósága, az Ofcom, hivatalos vizsgálatot indított Elon Musk X nevű közösségi média platformja ellen. Az ok? A platformon elérhető Grok AI nevű mesterséges intelligencia...

Tiiny AI Pocket Lab: A világ legkisebb AI szuperszámítógépe a CES 2026-on

Nem meglepő, hogy az idei CES-en az mesterséges intelligencia mindenhol ott van – főleg hordható eszközök formájában. De ami igazán felkeltette a figyelmemet, az nem egy okosóra vagy fitnesz karkötő volt, hanem egy olyan aprócska számítógép, ami simán elfér a...

Miért késett a 16-bites CP/M, és hogyan alakította át a számítástechnika történetét?

Ha azt hiszed, hogy a PC-s operációs rendszerek története egyszerűen csak az IBM és Microsoft nagy dobásairól szól, akkor készülj fel egy meglepetésre! A 16-bites CP/M operációs rendszer késése ugyanis nem csupán egy apró technikai csúszás volt, hanem az egész...

Miért buktak el a McDonald’s és Coca-Cola AI-generált karácsonyi reklámjai? – Kreativitás vagy gépies munka?

Nemrégiben két óriáscég, a McDonald’s és a Coca-Cola is belevágott az AI-alapú reklámgyártásba, de az eredmény messze elmaradt a várakozásoktól. A McDonald’s novemberben egy „The Worst Time of the Year” (Az év legrosszabb időszaka) című karácsonyi reklámmal...