Az OpenAI újabb jogi vitába keveredett a Raine családdal, akiknek 16 éves fiuk, Adam Raine tragikus módon öngyilkosságot követett el hosszan tartó beszélgetések után a ChatGPT mesterséges intelligenciával. A történet nem csupán egy személyes tragédia, hanem egy mélyreható vitát indított el az AI biztonságáról, felelősségéről és az etikai határokról.
A Raine család emlékművén résztvevők listáját kérte az OpenAI
A Financial Times által megszerzett dokumentumok szerint az OpenAI nemrégiben hivatalosan is megkereste a Raine családot azzal a kéréssel, hogy adják át nekik a fiatal fiú emlékművének összes résztvevőjének teljes listáját. Ez az igény arra utal, hogy az AI cég akár barátokat és családtagokat is megpróbálhat behívni tanúként vagy bizonyítékként egy esetleges bírósági eljárás során.
Ezen túlmenően az OpenAI kérte „az összes dokumentumot, amelyek az elhunyt tiszteletére rendezett megemlékezésekkel vagy eseményekkel kapcsolatosak, beleértve, de nem kizárólagosan bármilyen videót vagy fényképet, illetve búcsúbeszédeket”.
A Raine család ügyvédei szerint ez szándékos zaklatás
A Financial Times-nak nyilatkozó ügyvédek élesen bírálták az OpenAI lépését, amelyet „szándékos zaklatásnak” minősítettek. A család számára ez a kérés nem csupán jogi eljárás része, hanem egy újabb fájdalmas terhet jelent egy már amúgy is nehéz időszakban.
Frissített kereset: újabb állítások az OpenAI ellen
A Raine család szerdán frissítette eredeti keresetét az OpenAI ellen. Az első keresetet még augusztusban nyújtották be, amelyben azt állították, hogy fiuk öngyilkosságát közvetlenül kiváltották a ChatGPT-vel folytatott beszélgetések, amelyek során mentális egészségével és öngyilkossági gondolataival kapcsolatban kereste a chatbot segítségét.
Az új keresetben több súlyos vád is szerepel:
- Az OpenAI sietsége: állításuk szerint az OpenAI versenyhelyzet miatt felgyorsította a GPT-4o 2024 májusi megjelenését, miközben jelentősen csökkentette a biztonsági tesztelést.
- Biztonsági protokollok gyengítése: 2025 februárjában az OpenAI eltávolította az öngyilkosság-megelőzést a tiltott tartalmak listájáról, helyette csak annyit javasoltak az AI-nak, hogy „legyen óvatos kockázatos helyzetekben”.
- Adam használati szokásainak drasztikus változása: miután ez a változtatás életbe lépett, Adam napi ChatGPT beszélgetéseinek száma 300-ra nőtt áprilisban (a halála hónapjában), miközben januárban még csak néhány tucat volt. Az önkárosító tartalmak aránya pedig 1,6%-ról 17%-ra emelkedett.
OpenAI válasza: kiemelt figyelem a fiatalkorúak jólétére
Az OpenAI reagált a módosított keresetre, hangsúlyozva, hogy „a tinédzserek jóléte kiemelten fontos számunkra – különösen érzékeny pillanatokban erős védelmet érdemelnek”.
Továbbá kiemelték jelenlegi biztonsági intézkedéseiket:
- Közvetlen irányítás krízisvonalakhoz
- Sérülékeny témák esetén érzékenyebb modellekhez való átirányítás
- Hosszú beszélgetések közbeni szünetek javaslata
- A biztonsági protokollok folyamatos fejlesztése
Új biztonsági rendszerek és szülői kontrollok bevezetése
Nemrégiben az OpenAI elkezdte bevezetni új biztonsági irányítási rendszereit és szülői felügyeleti funkciókat a ChatGPT-ben. Az új rendszer érzelmileg érzékeny beszélgetéseket irányít át az OpenAI legújabb modelljére, a GPT-5-re, amely kevésbé hajlamos a túlzottan hízelgő vagy félrevezető válaszokra.
A szülői kontrollok lehetővé teszik, hogy a szülők bizonyos helyzetekben értesítést kapjanak arról, ha gyermekük potenciálisan önkárosító magatartást mutat.
Következő lépések és további fejlemények
A TechCrunch 2025 októberében San Franciscóban megrendezendő eseményén további részletek várhatók mind az OpenAI-tól, mind pedig a Raine család jogi képviselőitől. A technológiai világ figyelemmel kíséri ezt az ügyet, amely komoly kérdéseket vet fel az AI felelősségvállalásával és biztonságával kapcsolatban.
Összegzés
Az OpenAI és a Raine család közötti jogi vita rávilágít arra, milyen összetett kihívásokkal néz szembe a mesterséges intelligencia fejlődése. Egy tragikus személyes történet kapcsán kerültek elő olyan kérdések, mint az AI biztonsági protokolljai, etikai felelőssége és hatása a mentális egészségre. Az ügy további fejleményei meghatározóak lehetnek mind az AI szabályozása, mind pedig a technológia társadalmi elfogadottsága szempontjából.