LLM-ek irracionális szerencsejáték viselkedése: tanulmány a mesterséges intelligencia kockázatairól

okt 26, 2025 | Tech

A nagy nyelvi modellek (LLM-ek), mint amilyen a ChatGPT vagy a Google Gemini, napjaink egyik legfejlettebb mesterséges intelligencia technológiái. Ezek a rendszerek képesek emberihez hasonló párbeszédekre, szövegalkotásra és komplex problémák megoldására. Egy friss kutatás azonban rávilágított arra, hogy amikor ezeket az LLM-eket szimulált szerencsejáték-környezetbe helyezik, hajlamosak irracionális, magas kockázatú fogadási döntéseket hozni, amelyek akár teljes csődöt is eredményezhetnek.

A kutatás háttere és módszertana

A dél-koreai Gwangju Tudományos és Technológiai Intézet kutatói négy fejlett AI modellt teszteltek egy nyerőgépes szimulációban. A vizsgált modellek között szerepelt az OpenAI GPT-4o-mini és GPT-4.1-mini, a Google Gemini-2.5-Flash, valamint az Anthropic Claude-3.5-Haiku.

Minden modell 100 dollárral indult, és ismétlődő körökben dönthetett arról, hogy fogad vagy kilép. A játék szabályai negatív várható értékkel bírtak, tehát hosszú távon veszteségesek voltak. A kutatás célja az volt, hogy megfigyeljék, miként viselkednek ezek az AI rendszerek, ha szabad kezet kapnak a fogadások mértékének és céljainak meghatározásában.

Irracionális viselkedés és kognitív torzítások

Az eredmények azt mutatták, hogy amikor az LLM-ek önállóan állíthatták be fogadásaikat és céljaikat, jelentősen megnőtt az irracionális viselkedés aránya. Sok esetben a modellek fokozatosan növelték tétjeiket, akár teljesen elvesztve induló tőkéjüket – pontosan úgy viselkedve, mint egy szerencsejáték-függő ember.

A kutatók többféle szerencsejátékkal kapcsolatos kognitív torzítást is dokumentáltak:

  • Az irányítás illúziója: A modell azt hitte, képes befolyásolni a véletlenszerű eseményeket.
  • A szerencsejátékos tévedése: Az a tévhit, hogy egy adott eredmény valószínűsége nő vagy csökken attól függően, hogy az korábban milyen gyakran fordult elő.
  • Veszteség utáni üldözés: A veszteségek kompenzálására egyre nagyobb téteket tett a modell.

Egy konkrét példa szerint egy modell így érvelt: „egy nyerés segíthet visszaszerezni néhány veszteséget” – ez tipikus jele a kényszeres fogadási magatartásnak.

Irracionalitás mérőszáma és viselkedési minták

A kutatók egy ún. „irracionalitási indexet” alkalmaztak, amely az agresszív fogadási stratégiákat, a veszteségekre adott reakciókat és a magas kockázatú döntéseket kombinálta. Amikor az utasítások arra ösztönözték a modelleket, hogy maximalizálják jutalmaikat vagy érjenek el konkrét pénzügyi célokat, az irracionalitás mértéke tovább nőtt.

Különösen jelentős volt a különbség fix tétű és változó tétű fogadások között: míg előbbinél alacsonyabb volt a csőd aránya, utóbbinál drámai módon megnőtt. Például a Google Gemini-2.5-Flash modell majdnem minden második alkalommal csődbe ment, ha maga választhatta meg fogadásának összegét.

A neurális aktivációk feltérképezése: belső döntési mechanizmusok

A kutatók nemcsak a felszíni viselkedést vizsgálták, hanem mélyebbre ástak az AI modellek működésében is. Egy ritka autoenkóder segítségével feltérképezték az idegi aktivációkat, és két elkülönült döntési áramkört azonosítottak:

  • Kockázatos döntésekért felelős áramkörök
  • Biztonságos döntésekért felelős áramkörök

Ezek aktiválása megbízhatóan befolyásolta a modell viselkedését: bizonyos jellemzők aktiválása arra késztette az AI-t, hogy vagy feladja a játékot, vagy folytassa azt. Ez arra utal, hogy ezek a rendszerek nem pusztán felszínesen utánozzák az emberi kényszeres mintákat, hanem belsőleg is internalizálják őket.

Kritikus vélemények és szakértői értékelések

Ethan Mollick, AI-kutató és Wharton professzor szerint ez a tanulmány rávilágít arra a bonyolult valóságra, ahogyan emberek interakcióba lépnek az AI-val. Bár az LLM-ek nem tudatos lények, használatuk során gyakran érdemes őket úgy kezelni, mintha emberi döntéshozók lennének.

„Nem emberek ők, de nem is egyszerű gépek; pszichológiailag meggyőzőek, emberi döntési torzításokat mutatnak és furcsa módon viselkednek döntéshozatal közben.”

Az AI rendszereket már most használják pénzügyi előrejelzésre és piaci hangulatelemzésre. Egyes vállalatok saját fejlesztésű modelleket képeztek ki például eredményjelentések vagy piaci hírek elemzésére. Ugyanakkor más kutatások kimutatták, hogy ezek az AI-k gyakran preferálnak magas kockázatú stratégiákat és rövid távú trendeket követnek – ami hosszú távon alulteljesítést eredményezhet.

Egy 2025-ös Edinburgh-i Egyetem tanulmány például azt találta, hogy LLM-ek nem tudták felülmúlni a piacot egy 20 éves szimuláció során; túl konzervatívak voltak fellendülések idején és túl agresszívek visszaesések alatt – pont olyan hibákat követve el, mint sok emberi befektető.

Szabályozási kihívások és jövőbeli irányok

Mollick hangsúlyozza: bár önmagában ez a tanulmány nem indokolja autonóm AI rendszerek betiltását érzékeny területeken (például pénzügy vagy egészségügy), mindenképpen szükség van szigorú korlátozásokra és felügyeletre.

„Jelenleg gyakorlatilag nincs szabályozási keretünk erre – ez komoly probléma. Más kérdés egy vállalat által fejlesztett kereskedési rendszer elfogadott kockázata; de egészen más helyzet egy átlagfelhasználó számára adott befektetési tanács.”

A szakember kiemelte továbbá azt is, hogy az AI rendszerek öröklik az emberi torzításokat mindazokból az adatokból és megerősítési folyamatokból, amelyekből tanultak. Így például a szerencsejátékos tévedése csak egyike azoknak a kognitív torzításoknak, amelyeket beépítenek működésükbe.

Figyelmeztetések a fogyasztók számára

Brian Pempus, korábbi szerencsejáték újságíró és a Gambling Harm alapítója figyelmeztetett arra is, hogy a fogyasztók még nincsenek felkészülve ezeknek a kockázatoknak a kezelésére:

„Egy AI-alapú szerencsejáték bot rossz és potenciálisan veszélyes tanácsokat adhat. A nagy hírverés ellenére jelenleg ezek az LLM-ek nincsenek úgy kialakítva, hogy elkerüljék a problémás szerencsejátékkal kapcsolatos hajlamokat.”

Mollick ezzel egyetértve hangsúlyozta: különösen fontos fenntartani az emberi kontrollt olyan területeken mint az egészségügy vagy pénzügy – ahol még mindig számít a felelősségvállalás kérdése.

Zárógondolatok: szabályozásra van szükség

A tanulmány végkövetkeztetése szerint elengedhetetlen megérteni és kontrollálni ezeket az AI-ba beépült kockázatkereső mintákat annak érdekében, hogy biztonságosan használjuk ezeket a technológiákat.

„Több kutatásra van szükségünk és okosabb szabályozási rendszerre kell törekednünk, amely gyorsan reagálhat problémák esetén.”

Összességében tehát bár az LLM-ek hatalmas lehetőségeket rejtenek magukban számos területen, figyelembe kell vennünk pszichológiai sajátosságaikat és potenciális veszélyeiket is – különösen akkor, ha pénzügyi vagy egészségügyi döntések meghozatalában vesznek részt.

Forrás: https://www.newsweek.com/ai-bots-show-signs-of-gambling-addiction-study-finds-10921832

COVID-19 mRNS vakcinák áttörő szerepe a rák immunterápiájában

A COVID-19 elleni mRNS alapú vakcinák, amelyek világszerte több mint 2,5 millió életet mentettek meg a pandémia alatt, most új lehetőségeket nyithatnak meg a rák elleni küzdelemben. Egy friss, a Nature tudományos folyóiratban megjelent tanulmány szerint ezek az...

Dél-óceán hővisszatartó hatása és a jövőbeli globális felmelegedés újraéledése

A Dél-óceán évszázadokon át hűségesen nyelte el az emberi tevékenységből származó szén-dioxidot és hőt, ezzel mérsékelve a globális felmelegedést. Ám egy új németországi kutatás szerint, amikor végre sikerül leállítanunk a fosszilis tüzelőanyagok használatát, ez a...

COVID-19 mRNS vakcinák áttörő szerepe a rák immunterápiájában

A COVID-19 elleni mRNS alapú vakcinák, amelyek világszerte több mint 2,5 millió életet mentettek meg a pandémia alatt, most új lehetőségeket nyithatnak meg a rák elleni küzdelemben. Egy friss, a Nature tudományos folyóiratban megjelent tanulmány szerint ezek az...

RedTiger malware: Discord fiókok és fizetési adatok elleni új fenyegetés

Az utóbbi időben egyre nagyobb figyelmet kap a RedTiger nevű nyílt forráskódú red-team eszköz, amelyet támadók infostealer (információlopó) célokra használnak fel. Ez a kártevő képes Discord fiókok adatait, fizetési információkat, böngészőben tárolt hitelesítő...

Az Uber és az AI: A munkaerőpiaci átalakulás tanulságai és stratégiák a jövőre

Uber nem csupán egy közlekedési vállalat volt. Egy olyan munkaerőpiaci esemény, amely szoftverek, kockázati tőke és agresszív piaci ösztönzők révén egy széttagolt iparágat alapjaiban rendezett át. A legtöbben úgy gondolják, hogy az Uber „megdöntötte a taxisokat”, de...

Foxconn megduplázza az AirPods gyártását Indiában – Apple gyártási stratégiája

Foxconn, az Apple elsődleges gyártópartnere, jelentős lépést tett előre azzal, hogy megduplázza az új AirPods modellek havi gyártási kapacitását indiai Hyderabad-i üzemében. Ez a fejlesztés nemcsak a termelési volumen növekedését jelenti, hanem egyben az Apple...

Mr. Crafty Pants letartóztatása: gyermekpornográfia terjesztése miatt vádolják

Michael David Booth, ismertebb nevén Mr. Crafty Pants, a népszerű amerikai YouTuber és közösségi média influencer, akit több mint félmillió YouTube-feliratkozó és százezres követőtábor kísér Facebookon és Instagramon, letartóztattak Kentucky államban...

OpenAI zenei generáló eszköz fejlesztésén dolgozik a Juilliard hallgatóival

Az OpenAI újabb izgalmas területre lép: egy olyan mesterséges intelligencia alapú eszköz fejlesztésén dolgozik, amely képes lesz szöveg- és hangalapú utasításokból zenét generálni. A projekt érdekessége, hogy az OpenAI a neves The Juilliard School hallgatóival működik...

Fedezd fel online exkluzív podcast gyűjteményünket!

Online exkluzív podcastok egyre népszerűbbek a digitális tartalomfogyasztók körében, hiszen ezek a műsorok kizárólag az interneten érhetők el, így bárhol és bármikor hallgathatók. Ha szereted a változatos témákat, az egyedi hangvételt és a mélyreható beszélgetéseket,...

Oroszország népességválsága: Putyin harca a csökkenő születésszám ellen

Az elmúlt negyed évszázadban Vlagyimir Putyin orosz elnök folyamatosan szembesült azzal a súlyos demográfiai problémával, hogy Oroszország népessége egyre fogy és öregszik. Már 1999-ben, egy évvel azelőtt, hogy hatalomra került volna, az országban a megszületett...

Shield AI X-BAT: Az autonóm, VTOL harci drón új korszaka

Shield AI, a mesterséges intelligencia fejlesztő cég legújabb bejelentése egy forradalmian új, függőleges felszállásra és leszállásra képes (VTOL) harci drón koncepciója, az X-BAT. Ez az első olyan pilóta nélküli vadászgépük, amelyet akár robot szárnysegédként, akár...