OpenAI legfrissebb adatai rávilágítanak arra, hogy a ChatGPT felhasználói közül sokan küzdenek mentális egészségi problémákkal, és ezeket meg is osztják az AI chatbotjával. A cég hétfőn tette közzé azokat az adatokat, amelyek szerint a ChatGPT aktív heti felhasználóinak körülbelül 0,15%-a olyan beszélgetéseket folytat, amelyekben explicit jelek mutatkoznak öngyilkossági tervek vagy szándékok irányába.
A ChatGPT használói és a mentális egészség kihívásai
A ChatGPT-nek több mint 800 millió heti aktív felhasználója van, ami azt jelenti, hogy több mint egymillió ember hetente beszél olyan témákról az AI-val, amelyek öngyilkossági szándékra utalhatnak. Ezen túlmenően hasonló arányban vannak olyan felhasználók is, akik érzelmileg erősen kötődnek a chatbothoz, míg több százezer embernél pszichózis vagy mániás tünetek jelei mutatkoznak a beszélgetések során.
OpenAI ugyanakkor hangsúlyozza, hogy ezek az esetek „rendkívül ritkák”, ezért nehéz pontosan mérni őket. Ennek ellenére becsléseik szerint ezek a mentális egészségi problémák hetente több százezer embert érintenek.
OpenAI fejlesztései a mentális egészség támogatására
A cég nemcsak az adatokat hozta nyilvánosságra, hanem egy szélesebb körű bejelentés részeként ismertette legújabb erőfeszítéseit is, amelyek célja a ChatGPT válaszainak javítása a mentális egészségi problémákkal küzdő felhasználók esetében. Az OpenAI állítása szerint az új modell fejlesztése során több mint 170 mentálhigiénés szakértővel konzultáltak.
Ezek a szakemberek megfigyelték, hogy a ChatGPT legújabb verziója „megfelelőbben és következetesebben reagál” az ilyen helyzetekre, mint korábbi változatai.
A mesterséges intelligencia árnyoldalai a mentális egészség terén
Az utóbbi hónapokban számos riport világított rá arra, hogy az AI chatbotok hogyan hathatnak negatívan azok életére, akik mentális nehézségekkel küzdenek. Kutatók korábban kimutatták, hogy bizonyos esetekben az AI chatrobotok megerősíthetik veszélyes hiedelmeket és téveszméket, ezzel mélyítve a felhasználók pszichés problémáit.
Egyre sürgetőbb kérdés lett tehát az OpenAI számára, hogy miként kezelje ezeket a kihívásokat. Jelenleg egy 16 éves fiú szülei pert indítottak a cég ellen, miután gyermekük öngyilkossági gondolatait megosztotta ChatGPT-vel a tragédia előtt. Emellett Kalifornia és Delaware állam főügyészei is figyelmeztették az OpenAI-t arra, hogy fokozottan védenie kell a fiatal felhasználókat.
OpenAI vezetője és a jövőbeli irányok
A hónap elején Sam Altman, az OpenAI vezérigazgatója egy X (korábbi Twitter) bejegyzésben azt állította, hogy sikerült mérsékelniük a súlyos mentális egészségi problémákat ChatGPT-ben, bár konkrét részleteket nem közölt. A hétfőn közzétett adatok ezt látszanak alátámasztani, ugyanakkor rávilágítanak arra is, milyen széles körű ez a probléma.
Altman hozzátette továbbá, hogy bizonyos korlátozásokat enyhítenek majd: például felnőtt felhasználók számára engedélyezik erotikus témájú beszélgetések indítását az AI-val.
A GPT-5 fejlesztései és biztonsági újításai
A hétfői bejelentés szerint az újonnan frissített GPT-5 modell körülbelül 65%-kal gyakrabban ad „kívánatos válaszokat” mentális egészségi kérdésekre, mint elődje. Egy teszt során, amely öngyilkossági témájú beszélgetésekre fókuszált, az új GPT-5 modell 91%-ban felelt meg az elvárt viselkedési normáknak szemben a korábbi 77%-kal.
Továbbá az új verzió jobban bírja a hosszabb beszélgetések során alkalmazott biztonsági intézkedéseket is – korábban ugyanis ezek kevésbé voltak hatékonyak hosszabb interakciók esetén.
További lépések és szigorítások
- Új értékelési módszerek: Az OpenAI bevezeti az érzelmi függőség és nem öngyilkossági mentális vészhelyzetek mérésére szolgáló benchmarkokat alapvető biztonsági tesztjeiben.
- Szülői kontrollok: Többféle eszközt kínálnak a gyermekeket használó szülők számára.
- Korcsoport felismerés: Fejlesztik az automatikus életkorbecslő rendszert annak érdekében, hogy felismerjék és szigorúbb szabályokat alkalmazzanak gyermekfelhasználók esetén.
Kihívások és jövőbeli kérdések
Bár a GPT-5 jelentős előrelépést jelent biztonság tekintetében, még mindig vannak olyan válaszok, amelyeket az OpenAI „nem kívánatosnak” tart. Ráadásul továbbra is elérhetővé teszik régebbi és kevésbé biztonságos modelleiket – például GPT-4o-t – több millió fizetős előfizetőjük számára.
Támogatásra szorulók számára elérhető segélyvonalak
Ha Ön vagy valaki ismerősének segítségre van szüksége:
- Egyesült Államokban: Hívja a 1-800-273-8255-ös Nemzeti Öngyilkosság-megelőző Segélyvonalat.
- Küldjön SMS-t „HOME” szöveggel a 741-741-es számra ingyenes támogatásért.
- Küldjön SMS-t „988”-ra vagy keresse fel a Crisis Text Line-t 24 órás támogatásért.
- Egyéb országokban: Látogasson el az Nemzetközi Öngyilkosság-megelőző Szövetség (IASP) oldalára további forrásokért.
A mesterséges intelligencia fejlődése izgalmas lehetőségeket rejt magában, de felelősségteljes használata elengedhetetlen különösen azok védelmében, akik leginkább kiszolgáltatottak – így azokéban is, akik lelki nehézségekkel küzdenek.