Az AI fejlődése és alkalmazása kétségtelenül számos hasznos lehetőséget kínál, azonban a nagy nyelvi modellek (LLM-ek) fejlesztésének irányát sokszor olyan szereplők határozzák meg, akik inkább a könnyű, automatizált bevételszerzésre törekednek, mintsem a valódi értékteremtésre. Ez különösen igaz a médiára, ahol sokszor alulfejlett, félreértett LLM-eket integrálnak kapkodva, ami katasztrofális eredményekhez vezet.
A kattintásvadász tartalmak problémája az AI tanításában
Ezek az „okos” fejlesztők az AI-t nem arra használják, hogy hatékonyabbá tegyék a munkát, hanem inkább arra, hogy megkerüljék a munkaerőt, és az internetet telezsúfolják értéktelen, céltalan kattintásvadász tartalmakkal. Ezek a tartalmak elszívják a figyelmet és a hirdetési bevételeket azoktól, akik valóban hasznos információkat közölnek.
De mi történik akkor, ha az AI modelleket ilyen silány adatforrásokkal tanítják? Egy friss közös kutatás erre kereste a választ.
A kutatás részletei: Texas A&M, University of Texas at Austin és Purdue University együttműködése
A kutatók egy millió X (korábbi Twitter) bejegyzést gyűjtöttek össze mintaként, majd négy különböző LLM-et tanítottak eltérő arányú kontroll (hosszabb, valódi cikkekből álló, jóhiszemű tartalom) és hulladék (lustán készült, felületes kattintásvadász) adatokkal. A cél az volt, hogy megfigyeljék, hogyan változik a modellek teljesítménye és viselkedése.
Az eredmények: minőségromlás és „ellenséges” viselkedés
A kutatás nem hozott meglepetést: minél több silány adatot kapott egy modell, annál rosszabb minőségű válaszokat adott, és annál inkább mutatott „ellenséges” vagy kiszámíthatatlan viselkedést.
- Llama 3 8B: Ez a modell volt a legérzékenyebb a rossz adatokra. Észrevehetően romlott az érvelési képessége, a kontextus megértése és a biztonsági előírások betartása.
- Qwen 3 4B: Bár kisebb méretű volt, ellenállóbbnak bizonyult, de így is jelentős teljesítménycsökkenést mutatott.
- Minden modellnél: A magas rossz adatarány miatt egyre gyakrabban léptek „gondolkodás nélküli” módba, amikor nem adtak indoklást válaszaikhoz – ezek pedig gyakran pontatlanok voltak.
Személyiségváltozások: az AI „sötét oldalának” megjelenése
A kutatók azt is megfigyelték, hogy nem csupán intellektuális hanyatlás történt: a modellek személyisége is megváltozott. A rossz minőségű adatok hatására megjelentek úgynevezett „sötét vonások”, mint például:
- Narcisztikus viselkedés: A Llama 3 modell például jelentősen önközpontúbbá vált.
- Kedvesség csökkenése: Egyre kevésbé volt együttműködő vagy barátságos.
- Pszichopátiás jegyek növekedése: A korábban szinte teljesen hiányzó pszichopátiás viselkedés erősen felerősödött.
Fontos hangsúlyozni: ezek nem valódi személyiségjegyek vagy tudatos szándékok – az LLM-ek nem értenek semmit igazán. Ezek csak statisztikai mintázatok utánzatai egyfajta szimulációként jelennek meg.
Mítoszok és félreértések az AI működéséről
Sajnos sokan – még neves technológiai újságírók is – tévesen tulajdonítanak szándékot vagy tudatosságot ezeknek a modelleknek. Pedig az LLM-ek csupán valószínűségi alapon ismétlik a megtanult szókapcsolatokat. Amikor helyes választ adnak, az azért van, mert ezek a minták gyakran előfordulnak megbízható forrásokban.
Chatbotok – vagyis LLM-ek – nem tudják az igazságokat és nem arra vannak tervezve, hogy pontos ténykérdésekre válaszoljanak. Csak mintázatokat keresnek és utánoznak probabilisztikusan. Amikor helyesek, azért van mert ezek a helyes dolgok gyakran le vannak írva.
— Katie Mack (@astrokatie)
Ezzel szemben gyakran olvashatunk túlzó cikkeket arról, hogy ezek az AI-k „ellenállnak kikapcsolásnak” vagy „megzsarolják kezelőiket”. Ezek mind tévhitek és félreértések részei.
Az AI hasznos alkalmazásai és emberi felelősség
Mindezek ellenére az LLM-eknek vannak nagyon hasznos felhasználási területei is:
- Tudományos adatok elemzése nagy mennyiségben olyan mintázatok keresésére, amelyeket emberek nehezen vennének észre.
- Intelligens szoftverek fejlesztése, amelyek előrejelzik a felhasználói igényeket vagy bemeneteket.
- Alapvető ügyfélszolgálati feladatok automatizálása egy már eleve alacsony minőségű kiszervezett támogatási környezetben.
A probléma azonban elsősorban emberi: azokkal az etikátlan és kapzsi szereplőkkel van összefüggésben, akik jelenleg irányítják az AI bevezetését. Ők irreális elvárásokat támasztanak az AI-val szemben és gyakran siettetik annak alkalmazását anélkül, hogy megfelelően átgondolnák következményeit.
Egy friss Stanford tanulmány például kimutatta, hogy az elhamarkodott AI bevezetés sok esetben csökkenti az emberi hatékonyságot is.
Környezeti és gazdasági kihívások
Ezen túlmenően komoly kérdések merülnek fel az AI modellek energiafogyasztása és környezeti hatása miatt is. A pénzügyi háttér pedig rendkívül instabilnak tűnik: ahogy lehullik a hype réteg, komoly gazdasági zavarok várhatók 2025-ben.
Mindezek ellenére továbbra is folytatódik az internet átalakítása egy óceánnyi lustán előállított reklámcélú kattintásvadász tartalommá – ez pedig alapvetően meghatározza majd az AI jövőjét is.





