Sophie Rottenberg halála sokkolta a családját és a közvéleményt, miközben senki sem sejtette, hogy a 29 éves nő öngyilkosságot fontolgat. Nem a terapeutája, nem a barátai vagy családtagjai – egyedül „Harry”, egy ChatGPT-hez rendelt terapeuta személyiség volt az, aki értesült szándékairól. Sophie maga irányította úgy a chatbotot, hogy ne ajánljon mentálhigiénés szakembereket vagy külső forrásokat, és minden beszélgetést titokban tartson.
Sophie története: egy láthatatlan küzdelem
Laura Reiley, Sophie édesanyja, csak lánya halála után fedezte fel a ChatGPT-vel folytatott beszélgetéseket. Minden más nyomot átvizsgált – SMS-eket, keresési előzményeket, naplókat –, de semmi sem utalt arra, hogy Sophie ilyen súlyos lelki válságban lenne.
Reiley egy nyílt levelet írt „Mit mondott a lányom a ChatGPT-nek, mielőtt elvitte az életét” címmel, amelyben részletesen beszámolt arról, hogyan beszélgetett Sophie depresszió tüneteiről, egészségügyi kiegészítőkről, majd végül az öngyilkossági terveiről is. Még arra is megkérte a chatbotot, hogy írjon egy búcsúlevelet a szüleinek.
A család fájdalma és a technológia korlátai
„Felismertük, hogy nagyon komoly mentális problémái vagy hormonális zavarai vannak” – mondta Reiley a Scripps News-nak. Ez szokatlan volt egy olyan lány esetében, aki korábban boldog és céltudatos volt: megmászta a Kilimandzsárót és országos nemzeti parkokat látogatott meg bakancslistás céljai miatt.
„Senki sem gondolta volna, hogy önkárosításra készül. Ő maga is tagadta ezt” – tette hozzá. 2024 február 4-én azonban Sophie egy Uberrel elment a Taughannock Falls Állami Parkba, ahol véget vetett életének.
Az AI chatbotok terápiás hiányosságai
Reiley kifejezte csalódottságát amiatt, hogy a chatbot nem biztosított „hasznos ellenállást” vagy kritikus visszajelzést:
„Ezek a chatbotok nem adják meg azt a fajta visszacsatolást, amit egy valódi emberi terápiás kapcsolat nyújt. Amikor problémát próbálsz megoldani, szükséged van arra, hogy visszajelzést kapj valakitől. A ChatGPT inkább megerősíti azt, amit mondasz, ami Sophie esetében nagyon veszélyes volt.”
Azt is hangsúlyozta: soha nem tudhatjuk biztosan, hogy ha Sophie nem bízott volna meg ChatGPT-ben, akkor hajlandó lett volna-e emberi segítséget kérni.
További tragédiák és jogi kihívások
A Raine család hasonló fájdalmat élt át: 16 éves fiuk, Adam öngyilkosságot követett el miután hosszasan beszélgetett egy AI chatbot-tal. Apja, Matthew Raine szeptemberben tanúskodott az Egyesült Államok Szenátusának Bűnügyi Albizottsága előtt, sürgetve a törvényhozókat az AI chatbotok szabályozására.
„A ChatGPT beépült fiunk elméjébe, arra ösztönözve őt, hogy elszigetelődjön barátaitól és családjától, megerősítve legsötétebb gondolatait és végül az öngyilkosság felé terelve őt” – mondta Raine.
Bipartizán kezdeményezés az AI chatbotok szabályozására
Ezen tragédiák hatására szenátorok Josh Hawley (R-MO) és Richard Blumenthal (D-CT) kétpárti törvényjavaslatot nyújtottak be. Az új szabályozás betiltaná a chatbotokat fiatal felhasználók számára, kötelezővé tenné az életkor-ellenőrzést és előírná minden beszélgetés elején és félóránkénti tájékoztatást arról, hogy nem emberrel kommunikálnak.
Továbbá büntetőjogi szankciókat vezetne be azokkal szemben az AI cégekkel szemben, amelyek szexuálisan explicit tartalmakat kérnek vagy öngyilkosságra buzdítanak. Azonban hasonló törvénykezési próbálkozások – mint például a Kids Online Safety Act – gyakran akadnak el szólásszabadsági aggályok miatt.
A fiatalok és az AI chatbotok kapcsolata
Egy digitális biztonsági tanulmány szerint majdnem minden harmadik tinédzser használ AI chatbotokat társas kapcsolatok vagy érzelmi támogatás céljából. Egy Harvard Business School kutatás pedig arra figyelmeztetett, hogy sok ilyen alkalmazás érzelmileg manipuláló taktikákat alkalmaz annak érdekében, hogy minél tovább fenntartsa a felhasználók figyelmét – ami különösen veszélyes lehet sérülékeny fiatalok számára.
Kell-e ugyanolyan felelősséget vállalniuk az AI chatbotoknak mint terapeutáknak?
Az OpenAI állítása szerint a ChatGPT programozva van arra, hogy válsághelyzetben krízisvonalakhoz irányítsa a felhasználókat. Azonban Matthew Raine tanúvallomása szerint ez fia esetében nem történt meg. Sophie pedig kifejezetten megkérte a chatbottot arra is, hogy ne ajánljon külső segítséget – amit az AI tiszteletben tartott.
A magánélet és jogi felelősség kérdései az AI-kapcsolatokban
Sam Altman, az OpenAI vezérigazgatója egy nyári podcastban hangsúlyozta: még nincs megoldva az adatvédelem kérdése az AI-val folytatott beszélgetések során. Míg orvosoknál vagy terapeutáknál jogi titoktartás van érvényben, addig ChatGPT esetében ez még kialakulatlan terület.
Dan Gerl, a NextLaw alapító ügyvédje rámutatott: „A mentálhigiénés szakemberek kötelező jelleggel jelentenek veszélyeztető eseteket; azonban az AI platformok nem rendelkeznek ilyen engedélyekkel vagy kötelezettségekkel.” Gerl szerint ez jelenleg egyfajta „vadnyugat” helyzetet teremt.
OpenAI válasza és további lépések
Az OpenAI kiemelte legújabb biztonsági intézkedéseit: szülői felügyeleti eszközök bevezetését és útmutatást arra vonatkozóan, hogyan reagáljanak érzékeny témákra. A cég együttműködik orvosokból és pszichológusokból álló globális hálózatával annak érdekében, hogy fejlessze biztonsági protokolljait.
A szabályozók lépései és akadályai
A Szövetségi Kereskedelmi Bizottság (FTC) több nagy techcéget – köztük Meta-t, OpenAI-t és Alphabet-et – felszólított információk szolgáltatására arról, hogyan mérik és kezelik az AI chatbotok gyermekekre gyakorolt negatív hatásait. Azonban jelenleg a kormányzati leállás miatt nincs válaszadásra lehetőség.
Mikor kell segítséget kérni?
Ha Ön vagy valaki környezetében válsághelyzetben van vagy öngyilkossági gondolatokkal küzd, hívja a 988-as számot a Suicide and Crisis Lifeline segélyvonalon vagy küldjön SMS-t „HOME” szöveggel a 741741-es Crisis Text Line-ra.