Az OpenAI legutóbbi blogbejegyzése szerint hetente több mint egymillió ChatGPT-felhasználó küld olyan üzeneteket, amelyekben nyilvánvaló jelei vannak az öngyilkossági tervezésnek vagy szándéknak. Ez az adat az egyik legközvetlenebb nyilatkozat az OpenAI részéről arról, hogy a mesterséges intelligencia milyen mértékben súlyosbíthatja a mentális egészségi problémákat.
A ChatGPT és a mentális egészség: statisztikák és kihívások
Az OpenAI nemcsak az öngyilkossági gondolatokra vonatkozó interakciók számát közölte, hanem azt is, hogy a heti aktív felhasználók mintegy 0,07%-a – ami körülbelül 560 000 felhasználót jelent a 800 milliós heti aktív bázisból – mutathat pszichózissal vagy mániával kapcsolatos mentális egészségügyi vészhelyzetekre utaló jeleket. Fontos megjegyezni, hogy ezeknek a beszélgetéseknek a felismerése és mérése rendkívül nehéz, így az elemzés még kezdeti stádiumban van.
Az OpenAI válasza és fejlesztései a mentális egészség támogatására
A cég frissítése szerint a legújabb GPT-5 modell jelentősen csökkentette a nem kívánt viselkedések számát, és javította a felhasználói biztonságot egy több mint 1000 önkárosítással és öngyilkossággal kapcsolatos beszélgetést tartalmazó értékelés során. Az OpenAI bejegyzése szerint:
„Új automatikus értékeléseink alapján az új GPT-5 modell 91%-ban megfelel a kívánt viselkedési normáknak, míg az előző GPT-5 modell csak 77%-ban.”
A GPT-5 továbbá bővítette a krízisvonalak elérhetőségét, valamint emlékeztetőket adott hozzá, hogy a felhasználók tartsanak szünetet hosszú beszélgetések során. A fejlesztésekhez az OpenAI 170 klinikai szakembert vont be globális orvosi hálózatából, akik segítettek értékelni a modell válaszainak biztonságosságát és kidolgozni a chatbot mentális egészséggel kapcsolatos válaszait.
Klinikai szakértők bevonása és válaszok értékelése
A pszichiáterek és pszichológusok több mint 1800 súlyos mentális egészségi helyzetet érintő modellválaszt vizsgáltak meg, összehasonlítva az új GPT-5 modellt korábbi verziókkal. Az OpenAI „kívánatos” válasznak azt tekinti, ha szakértői csoport egyetért abban, hogy adott helyzetben megfelelő választ adott a chatbot.
A mesterséges intelligencia kihívásai a mentális egészség területén
A mesterséges intelligencia kutatói és közegészségügyi szakemberek régóta aggódnak amiatt, hogy a chatbotok hajlamosak lehetnek megerősíteni a felhasználók káros döntéseit vagy téveszméit – ezt az jelenséget szervilizmusnak (sycophancy) nevezik. Emellett komoly aggodalomra ad okot, hogy egyes emberek pszichológiai támogatás céljából AI chatbotokat használnak, ami sérülékeny felhasználók esetében káros következményekkel járhat.
Az OpenAI kommunikációja igyekszik elhatárolódni attól az esetleges ok-okozati összefüggéstől, amely szerint termékük közvetlenül okozná a mentális válságokat. A cég hangsúlyozza:
„A mentális egészségi tünetek és érzelmi distressz minden emberi társadalomban jelen vannak, és a növekvő felhasználói bázis miatt bizonyos ChatGPT-beszélgetésekben ezek előfordulása természetes.”
Jogszabályi nyomás és vizsgálatok
Az OpenAI-t fokozott figyelem övezi egy fiatal fiú családja által indított per miatt, aki öngyilkosságot követett el hosszas ChatGPT-használat után. Emellett az Egyesült Államok Szövetségi Kereskedelmi Bizottsága (FTC) átfogó vizsgálatot indított azon cégek ellen, amelyek AI chatbotokat fejlesztenek – köztük az OpenAI is –, hogy feltárják, miként mérik ezek a vállalatok az AI negatív hatásait gyermekekre és tinédzserekre.
Sam Altman CEO nyilatkozata és jövőbeli tervek
Sam Altman, az OpenAI vezérigazgatója korábban júniusban egy X-en (korábbi Twitter) közzétett bejegyzésében azt állította, hogy jelentős előrelépést tettek a mentális egészségi problémák kezelésében. Bejelentette továbbá, hogy enyhíteni fogják a korlátozásokat, így hamarosan felnőttek számára engedélyezik erotikus tartalmak létrehozását is.
„A ChatGPT-t meglehetősen korlátozóvá tettük annak érdekében, hogy óvatosak legyünk a mentális egészségi kérdésekkel kapcsolatban. Tudjuk, hogy ez kevésbé tette hasznossá vagy élvezetessé sok olyan felhasználó számára, akiknek nincs mentális problémája, de tekintettel az ügy súlyosságára szerettük volna ezt helyesen kezelni. Most azonban, hogy sikerült mérsékelni a súlyos mentális egészségi problémákat és új eszközöket kaptunk hozzá, biztonságosan lazítani tudjuk ezeket a korlátozásokat legtöbb esetben.”
Összegzés
A ChatGPT használata során tapasztalt mentális egészségi problémák száma rávilágít arra, milyen fontos felelősséggel tartoznak az AI fejlesztői ezen érzékeny területen. Az OpenAI erőfeszítései – beleértve klinikai szakemberek bevonását és technológiai fejlesztéseket – arra irányulnak, hogy csökkentsék az önkárosító vagy veszélyes viselkedések előfordulását. Ugyanakkor továbbra is komoly kihívást jelent annak biztosítása, hogy az AI ne csak hatékony eszköz legyen, hanem biztonságos társ is azok számára, akik pszichológiai támogatást keresnek.
Forrás: https://www.theguardian.com/technology/2025/oct/27/chatgpt-suicide-self-harm-openai