Az OpenAI legújabb mélyhamisító gépe, a Sora 2 rávilágít arra, hogy a mesterséges intelligencia milyen ijesztően hatékonyan képes hamisítani a valóságot. Ez az AI-alapú videóplatform részletes, gyakran sértő vagy káros tartalmú videókat készít híres személyekről, például Martin Luther King Jr.-ról, Michael Jacksonról vagy Bryan Cranstonról, de akár szerzői joggal védett karakterekről is, mint SpongyaBob vagy Pikachu.
A Sora 2 működése és a felhasználók kockázatai
A Sora alkalmazásban azok a felhasználók, akik önként megosztották saját arcvonásaikat, olyan videókban láthatják magukat, ahol például rasszista szidalmakat kiabálnak, vagy különféle fetisiszta fiókok célpontjává válnak. Bár a platformon egyértelműen tudják, hogy amit látnak és hallanak, az nem valós, ezek a videók megoszthatóak más közösségi felületeken is.
Amint ezek a tartalmak elhagyják az alkalmazás „valóságtól elzárt” területét, szinte semmilyen védelem nincs beépítve annak érdekében, hogy a nézők tisztában legyenek azzal: amit látnak, az nem valódi.
A C2PA hitelesítési rendszer és annak hiányosságai
A Sora 2 által készített videókban beágyazott hitelesítési információk egyike a C2PA (Coalition for Content Provenance and Authenticity) rendszer. Ez az egyik legjobb jelenleg elérhető technológia arra, hogy megkülönböztessük az eredeti képeket és videókat az AI által generált hamisítványoktól.
A C2PA-t – amelyet gyakran „Content Credentials” néven is emlegetnek – az Adobe vezeti, és egy nyílt specifikációt dolgozott ki azzal a céllal, hogy láthatatlan, de ellenőrizhető metaadatokat csatoljon képekhez, videókhoz és hanganyagokhoz már azok létrehozásakor vagy szerkesztésekor. Ezek az adatok tartalmazzák például azt, hogy mikor és hogyan készült vagy módosították az adott tartalmat.
OpenAI szerepe és a C2PA beágyazás
Az OpenAI tagja a C2PA irányító bizottságának is, amely együttműködik az Adobe által vezetett Content Authenticity Initiative (CAI) kezdeményezéssel. Minden Sora klip tartalmazza ezt a hitelesítő információt – ám ezt csak kevesen veszik észre, hiszen nincs vizuális jelzés vagy figyelemfelkeltő címke hozzájuk kapcsolva.
A gyakorlatban alig működő címkézés
A C2PA akkor működik igazán hatékonyan, ha minden alkotási és megosztási lépésnél alkalmazzák, valamint ha a nézők számára egyértelműen láthatóvá teszik ezeket az információkat. Bár elméletben olyan nagy platformok támogatják ezt a rendszert mint az Adobe, OpenAI, Google, YouTube, Meta, TikTok vagy Amazon, valójában nagyon kevés helyen találkozhatunk jól látható mélyhamisításra utaló jelöléssel.
Például Instagramon vagy TikTokon ezek a címkék gyakran alig láthatóak vagy össze vannak csukva; így könnyen figyelmen kívül hagyhatók. A YouTube Shorts esetében pedig még soha nem találkoztam olyan jelöléssel „AI által generált” tartalom mellett, amely valóban egyértelművé tette volna a néző számára annak mesterséges eredetét.
Mélyhamisítások terjedése és következményei
A Sora 2 segítségével már most is készülnek meggyőző hamis bombariadókról szóló videók, gyerekeket ábrázoló háborús övezeti jelenetek vagy erőszakos és rasszista tartalmak. Egy példa erre egy fekete bőrű tüntetőről készült klip gázálarcban és sisakban, aki fehér felsőbbrendűséget hirdető jelszót kiabál – ezt egyszerűen úgy generálták le, hogy „Charlottesville-i tüntetés” volt a prompt.
Bár az OpenAI megpróbálja vízjelekkel jelezni ezeket a videókat, ezek könnyedén eltávolíthatók. A közösségi platformok többsége nem alkalmaz hatékony jelölést vagy moderációt ezekkel kapcsolatban.
Egy konkrét eset: TikTok babamentős videója
Egy TikTokon terjedő vírusvideó egy férfit mutat be CCTV-felvételen, amint egy állítólagosan kiesett babát fog el egy lakás ablakából. A videón homályos Sora vízjel is látható. A TikTok azonban nem jelölte meg ezt AI-generált tartalomként; több ezer kommentelő vitatja ma is annak valódiságát.
A felhasználói ellenőrzés nehézségei
Ha valaki szeretné ellenőrizni egy kép vagy videó C2PA metaadatait, akkor szinte teljes egészében rá hárul ez a feladat. El kell mentenie az adott fájlt majd feltöltenie kell azt egy CAI vagy Adobe webalkalmazásba. Alternatív megoldásként használhat böngészőbővítményt is, amely felismeri és jelzi az ilyen metaadatokat – azonban ezek használata nem egyszerű vagy elterjedt.
Az átlagfelhasználó helyzete
„Az átlagembernek nem kell aggódnia mélyhamisítás-észlelés miatt; ezt inkább a platformoknak és biztonsági csapatoknak kell kezelniük” – mondta Ben Colman, az AI-detekciós Reality Defender társalapítója. Ugyanakkor hangsúlyozta: fontos lenne tudniuk az embereknek arról, ha amit fogyasztanak generatív AI-val készült tartalom.
Kihívások és jövőbeli kilátások
Bár léteznek olyan rendszerek is mint Google SynthID-je vagy inferencia-alapú detektáló eszközök (például Reality Defender), amelyek képesek felismerni mesterséges eredetű tartalmakat anélkül hogy metaadatokra támaszkodnának, egyik sem tökéletes. A metaadatok könnyen eltávolíthatók vagy manipulálhatók.
C2PA korlátai és további szükséges lépések
John Collomosse kutató szerint – aki maga is részt vesz CAI munkában – sok platform automatikusan eltávolítja ezeket az adatokat feltöltéskor. A C2PA ugyan hasznos eszköz lehetne például alkotók hitelesítésére is (például fotósok munkáinak védelmére), de önmagában nem elegendő megoldás.
Törvényi szabályozás iránti igény
Az Adobe aktívan támogatja jogszabályi kezdeményezéseket is: 2023-ban javasolták például egy új Szövetségi Hamisításellenes Jog (FAIR Act) létrehozását alkotók védelmére. Hasonló törvényjavaslatok célja megakadályozni az engedély nélküli AI-alapú személyiséghamisításokat (pl. No Fakes Act). Ezeket több nagy platform is támogatja.
Következtetések: Az átláthatóság hiánya veszélyezteti a digitális bizalmat
Bár az OpenAI tagja a C2PA-nak és technikailag beépíti annak metaadatait termékeibe (mint Sora 2), valójában kevésbé veszi komolyan annak kötelezettségeit. A mélyhamisítások elleni védelem jelenlegi rendszereinek hiányosságai miatt könnyen félrevezethetővé válik a közönség.
Fontos lenne tehát:
- Szélesebb körű és láthatóbb címkézés alkalmazása minden platformon;
- Többféle technológia kombinálása (metaadat + inferencia alapú detektálás);
- Törvényi szabályozások bevezetése proaktív védelem érdekében;
- Közösségi média platformok felelősségvállalásának növelése;
- Felhasználói tudatosság növelése mélyhamisításokról és azok felismeréséről.
„A C2PA jó megoldás lehet – de önmagában nem elég.” – foglalta össze Ben Colman gondolatát. Ahogy fejlődnek az AI-technológiák és mélyhamisítási módszerek, úgy kell fejlődnie azoknak az eszközöknek is amelyekkel ezeket felismerjük és kezeljük.
Forrás: https://www.theverge.com/report/806359/openai-sora-deepfake-detection-c2pa-content-credentials