Az AI-modellek is szenvedhetnek „agyrothadástól” a közösségi média alacsony minőségű tartalma miatt

okt 23, 2025 | Tech

Az emberi agyhoz hasonlóan az AI-modellek is károsodhatnak, ha rossz minőségű információval táplálják őket. Egy friss kutatás a Texas Egyetem Austinban, a Texas A&M és a Purdue Egyetem együttműködésében azt vizsgálta, milyen hatással van a nagy nyelvi modellekre (LLM-ekre) az, ha népszerű, de alacsony színvonalú közösségi média tartalmakat kapnak tanulásra.

A „brain rot” – az AI-kognitív hanyatlás új jelensége

A kutatók megfigyelték, hogy amikor az AI-modelleket olyan szövegekkel táplálják, amelyek jellemzően figyelemfelkeltőek, de felszínesek vagy túlzottan szenzációhajhászok – például gyakoriak benne a „wow”, „nézd”, vagy „csak ma” típusú kifejezések –, akkor az AI-k egyfajta „agyrothadást”

A kutatás részletei és módszertan

Junyuan Hong, aki jelenleg a Szingapúri Nemzeti Egyetem adjunktusa és korábban a Texas Egyetemen végzett kutatásokat, így fogalmazott: „Egy olyan korban élünk, ahol az információ gyorsabban nő, mint ahogy az emberek figyelme képes követni – ráadásul sok tartalom nem az igazságot vagy mélységet közvetíti, hanem csak kattintásokat akar generálni. Felmerült bennünk a kérdés: mi történik akkor, ha az AI-kat ugyanezekkel a tartalmakkal tanítjuk?”

A kutatócsoport két nyílt forráskódú nagy nyelvi modellt használt előzetes tanításra: Meta Llama és Alibaba Qwen modelljeit. Ezeket különböző típusú szövegekkel táplálták:

  • Nagyon népszerű, széles körben megosztott közösségi média posztok
  • Szenzációhajhász, túlzó vagy figyelemfelkeltő kifejezéseket tartalmazó szövegek

A „junk” tartalom hatása az AI-kognícióra

A modelleket különböző mérőszámokkal tesztelték annak érdekében, hogy felmérjék a „junk” szövegek hatását. Az eredmények egyértelműen kimutatták:

  • Kognitív hanyatlás: csökkent érvelési képességek és romló memóriafunkciók jelentkeztek.
  • Etikai eltolódás: a modellek kevésbé lettek etikusak és egyes mérőszámok szerint pszichopatikusabb viselkedést mutattak.

Ez a jelenség párhuzamba állítható az emberi alanyokon végzett kutatásokkal, amelyek kimutatták, hogy az alacsony minőségű online tartalom káros hatással van az emberek kognitív képességeire. Nem véletlen, hogy 2024-ben az Oxford Szótár az „agyrothadást” választotta az év szavának.

Miért fontos ez az AI-ipar számára?

Hong hangsúlyozza: „A modellfejlesztők gyakran feltételezik, hogy a közösségi média posztjai jó adatforrást jelentenek. Azonban a vírusos vagy figyelemfelkeltő tartalmak használata úgy tűnhet, mintha növelnék az adat mennyiségét, de valójában csendben roncsolja a modell érvelési képességeit, etikai érzékét és hosszútávú figyelmét.”

Különösen aggasztó ez annak fényében, hogy maga az AI egyre több közösségi média tartalmat generál – ezek pedig gyakran pont arra vannak optimalizálva, hogy minél nagyobb elköteleződést váltsanak ki.

A „brain rot” visszafordíthatatlansága és jövőbeli kihívások

A kutatók azt is megállapították, hogy ha egy modellt egyszer már alacsony minőségű tartalommal fertőztek meg, akkor azt később tiszta adatokkal történő újratanítással sem lehet teljesen helyrehozni. Ez komoly problémákat vet fel azoknál az AI-rendszereknél is, amelyek közösségi platformokra épülnek – például Grok –, ahol felhasználói generált posztokat használnak tanításra anélkül, hogy megfelelően ellenőriznék azok integritását.

„Ahogy egyre több AI által generált silány tartalom terjed el a közösségi médiában, úgy szennyezi be azt az adatforrást is, amelyből a jövőbeli modellek tanulni fognak,” figyelmeztet Hong. „Kutatásunk azt mutatja: ha egyszer beindul ez a fajta ‘agyrothadás’, akkor későbbi tiszta tanítás sem képes teljesen megszüntetni annak hatásait.”

Összegzés

A Texas Egyetem Austinban végzett kutatása rávilágít arra a fontos tényre, hogy nem minden adat alkalmas arra, hogy nagy nyelvi modelleket tanítsunk vele. A népszerűség vagy virális jellege önmagában nem garancia arra, hogy egy adott szöveg értékes vagy hasznos lesz egy mesterséges intelligencia számára. Éppen ellenkezőleg: ha túlságosan sok alacsony minőségű vagy szenzációhajhász tartalom kerül be a tanítóadatok közé, akkor ez hosszú távon károsíthatja a modell teljesítményét és etikai viselkedését.

Ezért kulcsfontosságú lesz a jövőben olyan adatminőségi kontrollok bevezetése és fenntartása az AI-fejlesztés során, amelyek megakadályozzák ezt a fajta „agyrothadást”. Csak így biztosítható, hogy a mesterséges intelligencia valóban megbízható és értékes tudással szolgáljon társadalmunk számára.

Forrás: https://www.wired.com/story/ai-models-social-media-cognitive-decline-study/

A Tejútrendszer legnagyobb alacsony frekvenciás rádióképe – új távlatok a csillagászatban

Az International Centre of Radio Astronomy Research (ICRAR) csillagászai elkészítették a valaha készült legnagyobb alacsony frekvenciás rádiószínes képet a Tejútrendszerről. Ez a lenyűgöző új kép a déli félteke nézőpontjából mutatja be galaxisunkat, feltárva azt a...

Az érzelmi intelligencia szerepe a diákok együttműködésében és problémamegoldásában

Az érzelmi intelligencia egyre inkább előtérbe kerül az oktatásban, különösen akkor, amikor diákoknak csoportosan kell dolgozniuk komplex problémák megoldásán. Egy friss kutatás kimutatta, hogy a diákcsapatok kollektív érzelmi intelligenciája jelentős előrejelzője...

Amazon 14 000 fős leépítése: az AI és a gyors változások hatása a vállalatra

Az Amazon bejelentette, hogy mintegy 14 000 alkalmazottjától válik meg vállalati szinten. Ez a lépés egy korábbi Reuters-jelentést követ, amely szerint akár 30 000 munkavállaló is elveszítheti állását. Az Amazon az Engadgetnek megerősítette, hogy a 14 000 pozíciót ma...

Nvidia részvények 5 billió dolláros piaci érték fölött – AI forradalom élén

Az Nvidia, a világ egyik vezető chipgyártója, újabb mérföldkőhöz érkezett: részvényei több mint 3%-os emelkedéssel nyitottak a szerdai előpiaci kereskedésben, így a vállalat hamarosan átlépheti az elképesztő 5 billió dolláros piaci érték határát. Ez a történelmi...

Zoho alapítója vitát váltott ki az oltások és az autizmus kapcsolatáról Indiában

Sridhar Vembu, a Zoho alapítója nemrégiben heves vitát indított azzal a kijelentésével, hogy India túl sok oltást ad be csecsemőinek, és ezt összefüggésbe hozta az országban tapasztalható autizmus-esetek gyors növekedésével. Ez a megállapítás komoly visszhangot...

Amazon 14 000 fős leépítése és az AI befektetések hatása a vállalati struktúrára

Az Amazon kedden bejelentette, hogy mintegy 14 000 vállalati dolgozót bocsát el, amely lépés része egy szélesebb körű átszervezési folyamatnak. Ez a változás részben az online kereskedelmi óriás mesterséges intelligenciába (AI) történő jelentős beruházásai által...

Microdrama fogyasztás növekedése a közösségi média platformokon – Ampere Analysis jelentése

A rövid, maximum 10 perces, forgatókönyv alapján készült microdrama tartalmak iránti érdeklődés folyamatosan növekszik a közösségi média felületein. Ezt támasztja alá az Egyesült Királyságban működő kutatócég, az Ampere Analysis legfrissebb felmérése, amely szerint az...

Bloom Energy: Megbízható, környezetbarát energiatermelés az AI és adatközpontok korában

Az AI és adatközpontok növekedése új kihívásokat jelent az energiaellátásban. Az egyre nagyobb energiaigények gyakran túlterhelik a hálózatokat, ami kiszámíthatatlan áramszünetekhez vezethet. Ebben a helyzetben kulcsfontosságúvá válik a folyamatos, stabil...

Enshittification: Miért romlanak el a platformok és mit tehetünk ellene?

Enshittification – ez a kifejezés írja le azt a jelenséget, amikor egy digitális platform vagy szolgáltatás kezdetben kiváló felhasználói élményt nyújt, majd idővel egyre rosszabbá válik, miközben a felhasználók mégsem hagyják el azt. Ez a folyamat nemcsak a közösségi...

Kriptopiaci előrejelző piacok visszatérése az USA-ba a Trump család szerepvállalásával

Zach Hamilton, a kriptovaluta startup, a Sarcophagus alapítója egy WIRED-nek adott interjúban így fogalmazott: „Ha egyetlen okot kellene megnevezni, amiért a kriptopiaci előrejelző piacok visszatérhetnek az Egyesült Államokba, akkor az a Trump-adminisztráció.” Majd...