OpenAI Sora 2 és a mélyhamisítások veszélyei: Az AI valóságutánzása és a hitelesítés hiányosságai

okt 27, 2025 | Tech

Az OpenAI legújabb mélyhamisító gépe, a Sora 2 rávilágít arra, hogy a mesterséges intelligencia milyen ijesztően hatékonyan képes hamisítani a valóságot. Ez az AI-alapú videóplatform részletes, gyakran sértő vagy káros tartalmú videókat készít híres személyekről, például Martin Luther King Jr.-ról, Michael Jacksonról vagy Bryan Cranstonról, de akár szerzői joggal védett karakterekről is, mint SpongyaBob vagy Pikachu.

A Sora 2 működése és a felhasználók kockázatai

A Sora alkalmazásban azok a felhasználók, akik önként megosztották saját arcvonásaikat, olyan videókban láthatják magukat, ahol például rasszista szidalmakat kiabálnak, vagy különféle fetisiszta fiókok célpontjává válnak. Bár a platformon egyértelműen tudják, hogy amit látnak és hallanak, az nem valós, ezek a videók megoszthatóak más közösségi felületeken is.

Amint ezek a tartalmak elhagyják az alkalmazás „valóságtól elzárt” területét, szinte semmilyen védelem nincs beépítve annak érdekében, hogy a nézők tisztában legyenek azzal: amit látnak, az nem valódi.

A C2PA hitelesítési rendszer és annak hiányosságai

A Sora 2 által készített videókban beágyazott hitelesítési információk egyike a C2PA (Coalition for Content Provenance and Authenticity) rendszer. Ez az egyik legjobb jelenleg elérhető technológia arra, hogy megkülönböztessük az eredeti képeket és videókat az AI által generált hamisítványoktól.

A C2PA-t – amelyet gyakran „Content Credentials” néven is emlegetnek – az Adobe vezeti, és egy nyílt specifikációt dolgozott ki azzal a céllal, hogy láthatatlan, de ellenőrizhető metaadatokat csatoljon képekhez, videókhoz és hanganyagokhoz már azok létrehozásakor vagy szerkesztésekor. Ezek az adatok tartalmazzák például azt, hogy mikor és hogyan készült vagy módosították az adott tartalmat.

OpenAI szerepe és a C2PA beágyazás

Az OpenAI tagja a C2PA irányító bizottságának is, amely együttműködik az Adobe által vezetett Content Authenticity Initiative (CAI) kezdeményezéssel. Minden Sora klip tartalmazza ezt a hitelesítő információt – ám ezt csak kevesen veszik észre, hiszen nincs vizuális jelzés vagy figyelemfelkeltő címke hozzájuk kapcsolva.

A gyakorlatban alig működő címkézés

A C2PA akkor működik igazán hatékonyan, ha minden alkotási és megosztási lépésnél alkalmazzák, valamint ha a nézők számára egyértelműen láthatóvá teszik ezeket az információkat. Bár elméletben olyan nagy platformok támogatják ezt a rendszert mint az Adobe, OpenAI, Google, YouTube, Meta, TikTok vagy Amazon, valójában nagyon kevés helyen találkozhatunk jól látható mélyhamisításra utaló jelöléssel.

Például Instagramon vagy TikTokon ezek a címkék gyakran alig láthatóak vagy össze vannak csukva; így könnyen figyelmen kívül hagyhatók. A YouTube Shorts esetében pedig még soha nem találkoztam olyan jelöléssel „AI által generált” tartalom mellett, amely valóban egyértelművé tette volna a néző számára annak mesterséges eredetét.

Mélyhamisítások terjedése és következményei

A Sora 2 segítségével már most is készülnek meggyőző hamis bombariadókról szóló videók, gyerekeket ábrázoló háborús övezeti jelenetek vagy erőszakos és rasszista tartalmak. Egy példa erre egy fekete bőrű tüntetőről készült klip gázálarcban és sisakban, aki fehér felsőbbrendűséget hirdető jelszót kiabál – ezt egyszerűen úgy generálták le, hogy „Charlottesville-i tüntetés” volt a prompt.

Bár az OpenAI megpróbálja vízjelekkel jelezni ezeket a videókat, ezek könnyedén eltávolíthatók. A közösségi platformok többsége nem alkalmaz hatékony jelölést vagy moderációt ezekkel kapcsolatban.

Egy konkrét eset: TikTok babamentős videója

Egy TikTokon terjedő vírusvideó egy férfit mutat be CCTV-felvételen, amint egy állítólagosan kiesett babát fog el egy lakás ablakából. A videón homályos Sora vízjel is látható. A TikTok azonban nem jelölte meg ezt AI-generált tartalomként; több ezer kommentelő vitatja ma is annak valódiságát.

A felhasználói ellenőrzés nehézségei

Ha valaki szeretné ellenőrizni egy kép vagy videó C2PA metaadatait, akkor szinte teljes egészében rá hárul ez a feladat. El kell mentenie az adott fájlt majd feltöltenie kell azt egy CAI vagy Adobe webalkalmazásba. Alternatív megoldásként használhat böngészőbővítményt is, amely felismeri és jelzi az ilyen metaadatokat – azonban ezek használata nem egyszerű vagy elterjedt.

Az átlagfelhasználó helyzete

„Az átlagembernek nem kell aggódnia mélyhamisítás-észlelés miatt; ezt inkább a platformoknak és biztonsági csapatoknak kell kezelniük” – mondta Ben Colman, az AI-detekciós Reality Defender társalapítója. Ugyanakkor hangsúlyozta: fontos lenne tudniuk az embereknek arról, ha amit fogyasztanak generatív AI-val készült tartalom.

Kihívások és jövőbeli kilátások

Bár léteznek olyan rendszerek is mint Google SynthID-je vagy inferencia-alapú detektáló eszközök (például Reality Defender), amelyek képesek felismerni mesterséges eredetű tartalmakat anélkül hogy metaadatokra támaszkodnának, egyik sem tökéletes. A metaadatok könnyen eltávolíthatók vagy manipulálhatók.

C2PA korlátai és további szükséges lépések

John Collomosse kutató szerint – aki maga is részt vesz CAI munkában – sok platform automatikusan eltávolítja ezeket az adatokat feltöltéskor. A C2PA ugyan hasznos eszköz lehetne például alkotók hitelesítésére is (például fotósok munkáinak védelmére), de önmagában nem elegendő megoldás.

Törvényi szabályozás iránti igény

Az Adobe aktívan támogatja jogszabályi kezdeményezéseket is: 2023-ban javasolták például egy új Szövetségi Hamisításellenes Jog (FAIR Act) létrehozását alkotók védelmére. Hasonló törvényjavaslatok célja megakadályozni az engedély nélküli AI-alapú személyiséghamisításokat (pl. No Fakes Act). Ezeket több nagy platform is támogatja.

Következtetések: Az átláthatóság hiánya veszélyezteti a digitális bizalmat

Bár az OpenAI tagja a C2PA-nak és technikailag beépíti annak metaadatait termékeibe (mint Sora 2), valójában kevésbé veszi komolyan annak kötelezettségeit. A mélyhamisítások elleni védelem jelenlegi rendszereinek hiányosságai miatt könnyen félrevezethetővé válik a közönség.

Fontos lenne tehát:

  • Szélesebb körű és láthatóbb címkézés alkalmazása minden platformon;
  • Többféle technológia kombinálása (metaadat + inferencia alapú detektálás);
  • Törvényi szabályozások bevezetése proaktív védelem érdekében;
  • Közösségi média platformok felelősségvállalásának növelése;
  • Felhasználói tudatosság növelése mélyhamisításokról és azok felismeréséről.

„A C2PA jó megoldás lehet – de önmagában nem elég.” – foglalta össze Ben Colman gondolatát. Ahogy fejlődnek az AI-technológiák és mélyhamisítási módszerek, úgy kell fejlődnie azoknak az eszközöknek is amelyekkel ezeket felismerjük és kezeljük.

Forrás: https://www.theverge.com/report/806359/openai-sora-deepfake-detection-c2pa-content-credentials

Biztonságosabb lítium-ion akkumulátorok: új elektrolit anyag a tűzveszély csökkentésére

A lítium-ion akkumulátorok ma már szinte minden modern eszköz, például okostelefonok, laptopok és elektromos autók alapvető energiaforrásai. Ezek az akkumulátorok azonban bizonyos körülmények között, például ha megsérülnek vagy átszúródnak, veszélyes tüzeket vagy akár...

Zero-day sérülékenység a Google Chrome-ban: Operation ForumTroll és az olasz Memento Labs kémprogramja

2025-ben egy kritikus zero-day sérülékenységet fedeztek fel a Google Chrome böngészőben, amelyet az év elején az Operation ForumTroll kampány során kihasználtak. Ez a támadás rosszindulatú szoftvert juttatott el az áldozatokhoz, amely kapcsolatba hozható az olasz...

OpenAI és az energiaforradalom: Az USA versenyben maradása a mesterséges intelligencia fejlesztésében

Sam Altman, az OpenAI Inc. vezérigazgatója 2025. szeptember 23-án, kedden Texas állambeli Abilene városában tett sajtólátogatást a Stargate AI adatközpontban. A látogatás során Altman hangsúlyozta, hogy az Egyesült Államoknak jelentősen növelnie kell új energia...

Amazon jelentős létszámleépítést hajt végre 2024-ben – akár 30 000 munkahely megszűnhet

Az Amazon a világ egyik legnagyobb technológiai és e-kereskedelmi vállalataként ismert, azonban 2024-ben egy újabb, jelentős létszámcsökkentést tervez végrehajtani. A Reuters hétfői jelentése szerint, a vállalathoz közel álló források alapján akár 30 000 vállalati...

Waymo robotaxi vandalizmus: kihívások és megoldások az Egyesült Államokban

Waymo, az Egyesült Államok vezető robotaxi szolgáltatója, az elmúlt év során többször is a vandálok célpontjává vált. A legutóbbi incidens a múlt hétvégén történt Los Angelesben, ahol a cég önvezető járműveit rongálták meg. Ez a helyzet komoly aggodalmakat vet fel a...

ChatGPT és a mentális egészség: OpenAI új adatai és fejlesztései

OpenAI legfrissebb adatai rávilágítanak arra, hogy a ChatGPT felhasználói közül sokan küzdenek mentális egészségi problémákkal, és ezeket meg is osztják az AI chatbotjával. A cég hétfőn tette közzé azokat az adatokat, amelyek szerint a ChatGPT aktív heti...

Az AI adatközpontok terjeszkedésének legnagyobb akadálya 2026-ban: a sugárhajtóművek

Az AI adatközpontok rohamos bővülése 2026-ban nem csupán számítási kapacitás, földterület vagy tőkehiány miatt ütközik akadályokba, hanem egy váratlan tényező, a sugárhajtóművek elérhetősége is komoly korlátot jelent. Az energiaellátás biztosítása ugyanis egyre...

AMD és az USA 1 milliárd dolláros partnersége: Két szuperszámítógép épül a tudományos áttörésekért

Az Egyesült Államok és az Advanced Micro Devices (AMD) egy jelentős, 1 milliárd dolláros együttműködést indított el, amelynek célja két csúcskategóriás szuperszámítógép megépítése. Ezek a gépek kulcsszerepet játszanak majd a legösszetettebb tudományos problémák...

Amazon tömeges leépítések: akár 30 000 alkalmazottat érinthet a költségcsökkentés

Az Amazon jelentős lépésre készül: a vállalat akár 30 000 vállalati dolgozót is elbocsáthat már keddtől kezdődően, hogy csökkentse működési költségeit. Ez az intézkedés a pandémia idején tapasztalt erőteljes munkaerő-felvétel utáni kiigazítás része, amelyről három, az...

Fizikai fittség, képernyőidő és agyi mechanizmusok: hogyan befolyásolják a mentális egészséget és tanulást a fiataloknál?

A fizikai aktivitás, a fizikai fittség és a képernyőidő összefüggései az agy működésével, amely alapvető szerepet játszik a mentális egészség és a tanulási folyamatok hátterében – ezt támasztják alá két friss kutatás az University of Eastern Finland és a Kuopio...