OpenAI Sora 2 és a mélyhamisítások veszélyei: Az AI valóságutánzása és a hitelesítés hiányosságai

okt 27, 2025 | Tech

Az OpenAI legújabb mélyhamisító gépe, a Sora 2 rávilágít arra, hogy a mesterséges intelligencia milyen ijesztően hatékonyan képes hamisítani a valóságot. Ez az AI-alapú videóplatform részletes, gyakran sértő vagy káros tartalmú videókat készít híres személyekről, például Martin Luther King Jr.-ról, Michael Jacksonról vagy Bryan Cranstonról, de akár szerzői joggal védett karakterekről is, mint SpongyaBob vagy Pikachu.

A Sora 2 működése és a felhasználók kockázatai

A Sora alkalmazásban azok a felhasználók, akik önként megosztották saját arcvonásaikat, olyan videókban láthatják magukat, ahol például rasszista szidalmakat kiabálnak, vagy különféle fetisiszta fiókok célpontjává válnak. Bár a platformon egyértelműen tudják, hogy amit látnak és hallanak, az nem valós, ezek a videók megoszthatóak más közösségi felületeken is.

Amint ezek a tartalmak elhagyják az alkalmazás „valóságtól elzárt” területét, szinte semmilyen védelem nincs beépítve annak érdekében, hogy a nézők tisztában legyenek azzal: amit látnak, az nem valódi.

A C2PA hitelesítési rendszer és annak hiányosságai

A Sora 2 által készített videókban beágyazott hitelesítési információk egyike a C2PA (Coalition for Content Provenance and Authenticity) rendszer. Ez az egyik legjobb jelenleg elérhető technológia arra, hogy megkülönböztessük az eredeti képeket és videókat az AI által generált hamisítványoktól.

A C2PA-t – amelyet gyakran „Content Credentials” néven is emlegetnek – az Adobe vezeti, és egy nyílt specifikációt dolgozott ki azzal a céllal, hogy láthatatlan, de ellenőrizhető metaadatokat csatoljon képekhez, videókhoz és hanganyagokhoz már azok létrehozásakor vagy szerkesztésekor. Ezek az adatok tartalmazzák például azt, hogy mikor és hogyan készült vagy módosították az adott tartalmat.

OpenAI szerepe és a C2PA beágyazás

Az OpenAI tagja a C2PA irányító bizottságának is, amely együttműködik az Adobe által vezetett Content Authenticity Initiative (CAI) kezdeményezéssel. Minden Sora klip tartalmazza ezt a hitelesítő információt – ám ezt csak kevesen veszik észre, hiszen nincs vizuális jelzés vagy figyelemfelkeltő címke hozzájuk kapcsolva.

A gyakorlatban alig működő címkézés

A C2PA akkor működik igazán hatékonyan, ha minden alkotási és megosztási lépésnél alkalmazzák, valamint ha a nézők számára egyértelműen láthatóvá teszik ezeket az információkat. Bár elméletben olyan nagy platformok támogatják ezt a rendszert mint az Adobe, OpenAI, Google, YouTube, Meta, TikTok vagy Amazon, valójában nagyon kevés helyen találkozhatunk jól látható mélyhamisításra utaló jelöléssel.

Például Instagramon vagy TikTokon ezek a címkék gyakran alig láthatóak vagy össze vannak csukva; így könnyen figyelmen kívül hagyhatók. A YouTube Shorts esetében pedig még soha nem találkoztam olyan jelöléssel „AI által generált” tartalom mellett, amely valóban egyértelművé tette volna a néző számára annak mesterséges eredetét.

Mélyhamisítások terjedése és következményei

A Sora 2 segítségével már most is készülnek meggyőző hamis bombariadókról szóló videók, gyerekeket ábrázoló háborús övezeti jelenetek vagy erőszakos és rasszista tartalmak. Egy példa erre egy fekete bőrű tüntetőről készült klip gázálarcban és sisakban, aki fehér felsőbbrendűséget hirdető jelszót kiabál – ezt egyszerűen úgy generálták le, hogy „Charlottesville-i tüntetés” volt a prompt.

Bár az OpenAI megpróbálja vízjelekkel jelezni ezeket a videókat, ezek könnyedén eltávolíthatók. A közösségi platformok többsége nem alkalmaz hatékony jelölést vagy moderációt ezekkel kapcsolatban.

Egy konkrét eset: TikTok babamentős videója

Egy TikTokon terjedő vírusvideó egy férfit mutat be CCTV-felvételen, amint egy állítólagosan kiesett babát fog el egy lakás ablakából. A videón homályos Sora vízjel is látható. A TikTok azonban nem jelölte meg ezt AI-generált tartalomként; több ezer kommentelő vitatja ma is annak valódiságát.

A felhasználói ellenőrzés nehézségei

Ha valaki szeretné ellenőrizni egy kép vagy videó C2PA metaadatait, akkor szinte teljes egészében rá hárul ez a feladat. El kell mentenie az adott fájlt majd feltöltenie kell azt egy CAI vagy Adobe webalkalmazásba. Alternatív megoldásként használhat böngészőbővítményt is, amely felismeri és jelzi az ilyen metaadatokat – azonban ezek használata nem egyszerű vagy elterjedt.

Az átlagfelhasználó helyzete

„Az átlagembernek nem kell aggódnia mélyhamisítás-észlelés miatt; ezt inkább a platformoknak és biztonsági csapatoknak kell kezelniük” – mondta Ben Colman, az AI-detekciós Reality Defender társalapítója. Ugyanakkor hangsúlyozta: fontos lenne tudniuk az embereknek arról, ha amit fogyasztanak generatív AI-val készült tartalom.

Kihívások és jövőbeli kilátások

Bár léteznek olyan rendszerek is mint Google SynthID-je vagy inferencia-alapú detektáló eszközök (például Reality Defender), amelyek képesek felismerni mesterséges eredetű tartalmakat anélkül hogy metaadatokra támaszkodnának, egyik sem tökéletes. A metaadatok könnyen eltávolíthatók vagy manipulálhatók.

C2PA korlátai és további szükséges lépések

John Collomosse kutató szerint – aki maga is részt vesz CAI munkában – sok platform automatikusan eltávolítja ezeket az adatokat feltöltéskor. A C2PA ugyan hasznos eszköz lehetne például alkotók hitelesítésére is (például fotósok munkáinak védelmére), de önmagában nem elegendő megoldás.

Törvényi szabályozás iránti igény

Az Adobe aktívan támogatja jogszabályi kezdeményezéseket is: 2023-ban javasolták például egy új Szövetségi Hamisításellenes Jog (FAIR Act) létrehozását alkotók védelmére. Hasonló törvényjavaslatok célja megakadályozni az engedély nélküli AI-alapú személyiséghamisításokat (pl. No Fakes Act). Ezeket több nagy platform is támogatja.

Következtetések: Az átláthatóság hiánya veszélyezteti a digitális bizalmat

Bár az OpenAI tagja a C2PA-nak és technikailag beépíti annak metaadatait termékeibe (mint Sora 2), valójában kevésbé veszi komolyan annak kötelezettségeit. A mélyhamisítások elleni védelem jelenlegi rendszereinek hiányosságai miatt könnyen félrevezethetővé válik a közönség.

Fontos lenne tehát:

  • Szélesebb körű és láthatóbb címkézés alkalmazása minden platformon;
  • Többféle technológia kombinálása (metaadat + inferencia alapú detektálás);
  • Törvényi szabályozások bevezetése proaktív védelem érdekében;
  • Közösségi média platformok felelősségvállalásának növelése;
  • Felhasználói tudatosság növelése mélyhamisításokról és azok felismeréséről.

„A C2PA jó megoldás lehet – de önmagában nem elég.” – foglalta össze Ben Colman gondolatát. Ahogy fejlődnek az AI-technológiák és mélyhamisítási módszerek, úgy kell fejlődnie azoknak az eszközöknek is amelyekkel ezeket felismerjük és kezeljük.

Forrás: https://www.theverge.com/report/806359/openai-sora-deepfake-detection-c2pa-content-credentials

AI által generált hamis nyugták: a vállalati csalások új korszaka

Az AI technológia fejlődése nemcsak az üzleti folyamatokat könnyíti meg, hanem új kihívásokat is teremt, különösen a vállalati költségelszámolás területén. Az utóbbi időben egyre több olyan hamis nyugta jelenik meg, amelyeket mesterséges intelligencia (AI)...

Windows 10 támogatás vége és a PC-piac átalakulása 2025-ben

2024. október 14-én a Microsoft hivatalosan is megszüntette a Windows 10 operációs rendszer támogatását, ezzel lezárva egy közel egy évtizedes korszakot, amely során ez az egyik legnépszerűbb PC operációs rendszer volt világszerte. Ez az esemény jelentős hatással volt...

Hogyan változik a politikai orientáció a vallás elhagyása után? – Új kutatási eredmények

Új tanulmány szerint azok az egyének, akik elhagyják vallásukat, hajlamosak politikailag liberálisabbá válni, gyakran olyan nézeteket felvéve, amelyek hasonlítanak azokéhoz, akik soha nem voltak vallásosak. A Journal of Personality folyóiratban megjelent kutatás...

Qualcomm belép a nagy adatközpontok piacára új AI200 és AI250 chipekkel

Qualcomm (QCOM) részvényei több mint 20%-ot emelkedtek hétfőn, miután a vállalat bejelentette, hogy új AI200 és AI250 chipeivel, valamint rack-méretű szervermegoldásaival megcélozza az adatközpontok piacát. Ez a lépés közvetlen versenyhelyzetbe hozza a Qualcommot...

Az AI térhódítása a társkeresésben: valóság vagy mesterséges varázslat?

A mesterséges intelligencia (AI) egyre mélyebben hatol be életünk különböző területeire, így a párkeresés világába is. Az online társkereső alkalmazásokban és üzenetváltásokban egyre gyakrabban találkozunk olyan kommunikációval, amely mögött nem mindig áll valódi...

AI által generált hamis nyugták: a vállalati csalások új korszaka

Az AI technológia fejlődése nemcsak az üzleti folyamatokat könnyíti meg, hanem új kihívásokat is teremt, különösen a vállalati költségelszámolás területén. Az utóbbi időben egyre több olyan hamis nyugta jelenik meg, amelyeket mesterséges intelligencia (AI)...

Amazon 30 000 munkahely megszüntetését tervezi a költségek csökkentése érdekében

San Francisco, Kalifornia – 2025. augusztus 29. – Az Amazon bejelentette, hogy akár 30 000 vállalati pozíciót is megszüntethet a következő napokban, miközben a cég célja a költségek csökkentése és a pandémia idején történt túlzott felvételek kompenzálása. Három, az...

Amazon 30 000 vállalati munkahely megszüntetését tervezi a költségcsökkentés érdekében

San Francisco, Kalifornia – 2025. augusztus 29. – Az Amazon jelentős lépésre készül: akár 30 000 vállalati pozíciót is megszüntethet a következő napokban. A döntés célja a kiadások csökkentése és az elmúlt évek pandémiás időszakában történt túlfelvétel kompenzálása,...

iRobot és a Roomba jövője: nehézségek és bizonytalanságok a robotporszívó-piacon

iRobot, a világszerte ismert Roomba robotporszívók gyártója, az elmúlt időszakban komoly kihívásokkal néz szembe. A cég részvényeinek árfolyama több mint 30%-ot zuhant egyetlen nap alatt, miután bejelentették, hogy az eladási folyamat jelentős akadályba ütközött, és...

Windows 10 támogatás vége és a PC-piac átalakulása 2025-ben

2024. október 14-én a Microsoft hivatalosan is megszüntette a Windows 10 operációs rendszer támogatását, ezzel lezárva egy közel egy évtizedes korszakot, amely során ez az egyik legnépszerűbb PC operációs rendszer volt világszerte. Ez az esemény jelentős hatással volt...

Hatékony DNS megőrzés biológiai mintákból: az EDTA áttörése a kutatásban

A biológiai mintákból származó DNS megőrzése hosszú ideje komoly kihívást jelentett a kutatók számára. Azonban a Northeastern Egyetem Ocean Genome Legacy Center (OGL) kutatói és hallgatói egy olyan áttörést értek el, amely jelentősen megkönnyítheti ezt a folyamatot....

Chatbotok és az AI intelligencia illúziója – Miért nem gondolkodnak igazán a mesterséges intelligenciák?

Először ismerjük fel: a chatbotok nem gondolkodnak, csupán egyre kifinomultabban képesek megtéveszteni minket. Ez az alapvető tanulság, amelyet az 1966-os ELIZA chatbot óta szinte változatlanul tapasztalunk – csak most már sokkal fejlettebb formában. Az ELIZA és a...