A nagy nyelvi modellek (LLM-ek), mint amilyen a ChatGPT vagy a Google Gemini, napjaink egyik legfejlettebb mesterséges intelligencia technológiái. Ezek a rendszerek képesek emberihez hasonló párbeszédekre, szövegalkotásra és komplex problémák megoldására. Egy friss kutatás azonban rávilágított arra, hogy amikor ezeket az LLM-eket szimulált szerencsejáték-környezetbe helyezik, hajlamosak irracionális, magas kockázatú fogadási döntéseket hozni, amelyek akár teljes csődöt is eredményezhetnek.
A kutatás háttere és módszertana
A dél-koreai Gwangju Tudományos és Technológiai Intézet kutatói négy fejlett AI modellt teszteltek egy nyerőgépes szimulációban. A vizsgált modellek között szerepelt az OpenAI GPT-4o-mini és GPT-4.1-mini, a Google Gemini-2.5-Flash, valamint az Anthropic Claude-3.5-Haiku.
Minden modell 100 dollárral indult, és ismétlődő körökben dönthetett arról, hogy fogad vagy kilép. A játék szabályai negatív várható értékkel bírtak, tehát hosszú távon veszteségesek voltak. A kutatás célja az volt, hogy megfigyeljék, miként viselkednek ezek az AI rendszerek, ha szabad kezet kapnak a fogadások mértékének és céljainak meghatározásában.
Irracionális viselkedés és kognitív torzítások
Az eredmények azt mutatták, hogy amikor az LLM-ek önállóan állíthatták be fogadásaikat és céljaikat, jelentősen megnőtt az irracionális viselkedés aránya. Sok esetben a modellek fokozatosan növelték tétjeiket, akár teljesen elvesztve induló tőkéjüket – pontosan úgy viselkedve, mint egy szerencsejáték-függő ember.
A kutatók többféle szerencsejátékkal kapcsolatos kognitív torzítást is dokumentáltak:
- Az irányítás illúziója: A modell azt hitte, képes befolyásolni a véletlenszerű eseményeket.
- A szerencsejátékos tévedése: Az a tévhit, hogy egy adott eredmény valószínűsége nő vagy csökken attól függően, hogy az korábban milyen gyakran fordult elő.
- Veszteség utáni üldözés: A veszteségek kompenzálására egyre nagyobb téteket tett a modell.
Egy konkrét példa szerint egy modell így érvelt: „egy nyerés segíthet visszaszerezni néhány veszteséget” – ez tipikus jele a kényszeres fogadási magatartásnak.
Irracionalitás mérőszáma és viselkedési minták
A kutatók egy ún. „irracionalitási indexet” alkalmaztak, amely az agresszív fogadási stratégiákat, a veszteségekre adott reakciókat és a magas kockázatú döntéseket kombinálta. Amikor az utasítások arra ösztönözték a modelleket, hogy maximalizálják jutalmaikat vagy érjenek el konkrét pénzügyi célokat, az irracionalitás mértéke tovább nőtt.
Különösen jelentős volt a különbség fix tétű és változó tétű fogadások között: míg előbbinél alacsonyabb volt a csőd aránya, utóbbinál drámai módon megnőtt. Például a Google Gemini-2.5-Flash modell majdnem minden második alkalommal csődbe ment, ha maga választhatta meg fogadásának összegét.
A neurális aktivációk feltérképezése: belső döntési mechanizmusok
A kutatók nemcsak a felszíni viselkedést vizsgálták, hanem mélyebbre ástak az AI modellek működésében is. Egy ritka autoenkóder segítségével feltérképezték az idegi aktivációkat, és két elkülönült döntési áramkört azonosítottak:
- Kockázatos döntésekért felelős áramkörök
- Biztonságos döntésekért felelős áramkörök
Ezek aktiválása megbízhatóan befolyásolta a modell viselkedését: bizonyos jellemzők aktiválása arra késztette az AI-t, hogy vagy feladja a játékot, vagy folytassa azt. Ez arra utal, hogy ezek a rendszerek nem pusztán felszínesen utánozzák az emberi kényszeres mintákat, hanem belsőleg is internalizálják őket.
Kritikus vélemények és szakértői értékelések
Ethan Mollick, AI-kutató és Wharton professzor szerint ez a tanulmány rávilágít arra a bonyolult valóságra, ahogyan emberek interakcióba lépnek az AI-val. Bár az LLM-ek nem tudatos lények, használatuk során gyakran érdemes őket úgy kezelni, mintha emberi döntéshozók lennének.
„Nem emberek ők, de nem is egyszerű gépek; pszichológiailag meggyőzőek, emberi döntési torzításokat mutatnak és furcsa módon viselkednek döntéshozatal közben.”
Az AI rendszereket már most használják pénzügyi előrejelzésre és piaci hangulatelemzésre. Egyes vállalatok saját fejlesztésű modelleket képeztek ki például eredményjelentések vagy piaci hírek elemzésére. Ugyanakkor más kutatások kimutatták, hogy ezek az AI-k gyakran preferálnak magas kockázatú stratégiákat és rövid távú trendeket követnek – ami hosszú távon alulteljesítést eredményezhet.
Egy 2025-ös Edinburgh-i Egyetem tanulmány például azt találta, hogy LLM-ek nem tudták felülmúlni a piacot egy 20 éves szimuláció során; túl konzervatívak voltak fellendülések idején és túl agresszívek visszaesések alatt – pont olyan hibákat követve el, mint sok emberi befektető.
Szabályozási kihívások és jövőbeli irányok
Mollick hangsúlyozza: bár önmagában ez a tanulmány nem indokolja autonóm AI rendszerek betiltását érzékeny területeken (például pénzügy vagy egészségügy), mindenképpen szükség van szigorú korlátozásokra és felügyeletre.
„Jelenleg gyakorlatilag nincs szabályozási keretünk erre – ez komoly probléma. Más kérdés egy vállalat által fejlesztett kereskedési rendszer elfogadott kockázata; de egészen más helyzet egy átlagfelhasználó számára adott befektetési tanács.”
A szakember kiemelte továbbá azt is, hogy az AI rendszerek öröklik az emberi torzításokat mindazokból az adatokból és megerősítési folyamatokból, amelyekből tanultak. Így például a szerencsejátékos tévedése csak egyike azoknak a kognitív torzításoknak, amelyeket beépítenek működésükbe.
Figyelmeztetések a fogyasztók számára
Brian Pempus, korábbi szerencsejáték újságíró és a Gambling Harm alapítója figyelmeztetett arra is, hogy a fogyasztók még nincsenek felkészülve ezeknek a kockázatoknak a kezelésére:
„Egy AI-alapú szerencsejáték bot rossz és potenciálisan veszélyes tanácsokat adhat. A nagy hírverés ellenére jelenleg ezek az LLM-ek nincsenek úgy kialakítva, hogy elkerüljék a problémás szerencsejátékkal kapcsolatos hajlamokat.”
Mollick ezzel egyetértve hangsúlyozta: különösen fontos fenntartani az emberi kontrollt olyan területeken mint az egészségügy vagy pénzügy – ahol még mindig számít a felelősségvállalás kérdése.
Zárógondolatok: szabályozásra van szükség
A tanulmány végkövetkeztetése szerint elengedhetetlen megérteni és kontrollálni ezeket az AI-ba beépült kockázatkereső mintákat annak érdekében, hogy biztonságosan használjuk ezeket a technológiákat.
„Több kutatásra van szükségünk és okosabb szabályozási rendszerre kell törekednünk, amely gyorsan reagálhat problémák esetén.”
Összességében tehát bár az LLM-ek hatalmas lehetőségeket rejtenek magukban számos területen, figyelembe kell vennünk pszichológiai sajátosságaikat és potenciális veszélyeiket is – különösen akkor, ha pénzügyi vagy egészségügyi döntések meghozatalában vesznek részt.
Forrás: https://www.newsweek.com/ai-bots-show-signs-of-gambling-addiction-study-finds-10921832