A mesterséges intelligencia (MI) világában újabb mérföldkőhöz érkeztünk: az OpenAI által fejlesztett Sora nevű generatív MI alkalmazás pillanatok alatt képes valósághű videókat létrehozni írott utasítások alapján. Ez az innováció gyorsan az év egyik legvitatottabb technológiai újdonságává vált, különösen a gyermekek biztonsága szempontjából felmerülő komoly aggályok miatt.
Mi az a Sora és hogyan működik?
A Sora egy úgynevezett szöveg-alapú videókészítő platform, amely lehetővé teszi, hogy a felhasználók egyszerűen beírjanak egy leírást – például „egy férfi biciklizik a parkban naplementekor” –, és az alkalmazás ennek alapján egy élethű, mesterséges intelligencia által generált videót készít, amely úgy tűnik, mintha valódi felvétel lenne.
Az alkalmazás jelenleg elérhető az OpenAI platformján és iOS alkalmazásként is, elsőként a ChatGPT Plus és Pro előfizetők számára. Emellett létezik egy ingyenes, korlátozott hozzáférésű verzió is, amely havonta néhány rövid, alacsonyabb felbontású videó elkészítését teszi lehetővé.
A Sora gyermekbiztonsági kockázatai
A Common Sense Media nonprofit szervezet októberi biztonsági jelentése szerint a Sora „elfogadhatatlan kockázatot” jelent gyerekek és tinédzserek számára. A fő problémák között szerepel az alkalmazás viszonylag kevés biztonsági funkciója és az AI-videók visszaélésszerű felhasználásának lehetősége.
Michael Dobuski, az ABC News Audio technológiai riportere kiemelte: „A Sora egyszerűen jobb, mint versenytársai. Videói valósághűek, nem tűnnek furcsának vagy nyilvánvalóan számítógéppel generáltnak. Ez azonban kettős él: ha valami nagyon élethűnek tűnik, könnyebb félretájékoztatást terjeszteni vagy káros tartalmakat létrehozni.”
Titania Jordan, a Bark Technologies szülői felügyeleti alkalmazás vezetője hozzátette: „A Sora képességei messze túlmutatnak egy egyszerű fotószűrőn vagy animációs eszközön. Olyan elképesztően valósághű videókat képes létrehozni, amelyek még a legtechnikaibb szemeket is megtéveszthetik.”
A Cameos funkció és annak veszélyei
A Sora egyik különleges szolgáltatása a Cameos, amely lehetővé teszi, hogy a felhasználók feltöltsék saját arcukat vagy hangjukat, majd ezeket animált jelenetekbe illesszék be. Ezáltal akár 100%-ban valósághűnek tűnő, de teljesen hamis videók készíthetők.
OpenAI szerint a Cameos funkció „hozzájáruláson alapul”, vagyis a felhasználók döntik el, ki férhet hozzá az arcukhoz vagy hangjukhoz, és bármikor visszavonhatják ezt a jogosultságot. Emellett az alkalmazás blokkolja közszereplők ábrázolását és extra biztonsági intézkedéseket alkalmaz ezekben az esetekben.
Ugyanakkor Jordan figyelmeztet: „Ha egyszer megjelent az arcod vagy hangod online, elveszíted az irányítást felette. Valaki könnyen készíthet hamis videót gyerekedről, ami zaklatáshoz vagy megalázáshoz vezethet.”
A Sora jelenlegi korlátozásai és szabályozási helyzet
Az OpenAI használati feltételei szerint a Sora használatához legalább 13 évesnek kell lenniük a felhasználóknak, 18 év alatt pedig szülői engedély szükséges. Azonban szakértők szerint ezek a védelmi mechanizmusok minimálisak, ráadásul a Sora által készített videók könnyen megoszthatók más platformokon (például TikTok vagy YouTube), ahol bármilyen korú gyerekek hozzáférhetnek.
Dobuski rámutatott arra is, hogy bár OpenAI több biztonsági intézkedést bevezetett, azok betartatása nem mindig hatékony. A kezdeti időszakban például sokan készítettek szerzői jogokat sértő tartalmakat – például SpongeBob vagy Pikachu karakterekről –, illetve hamis videókat OpenAI vezetőiről.
OpenAI biztonsági intézkedései
Az OpenAI hangsúlyozza weboldalán, hogy a Sora 2 és maga az alkalmazás már eleve biztonságra épült. Minden AI-videó tartalmaz látható vízjelet és C2PA metaadatokat – ezek iparági szabványú digitális aláírások –, amelyek segítenek felismerni az MI által generált tartalmakat.
Ezen túl belső keresőeszközöket is használnak arra, hogy nagy pontossággal visszakövessék a videókat Sorára. Tinédzserek számára korlátozásokat vezettek be például érett tartalmakra vonatkozóan, valamint üzenetküldési szabályokat állítottak fel felnőttek és fiatalok között.
Korlátok és további aggályok szülők számára
Titania Jordan azonban óvatosságra int: „Még vízjelekkel és szűrőkkel együtt is előfordulhatnak zavaró vagy nem megfelelő tartalmak. Ráadásul mivel a gyerekek bármikor leválaszthatják fiókjukat szülői felügyeletről, ezek a védelmek nem tökéletesek.”
Dobuski kiemelte: „A legnagyobb probléma nem csupán a tartalom moderálása, hanem annak sebessége. Ezeket a videókat olyan gyorsan lehet elkészíteni és megosztani online, hogy sokszor még mielőtt egy platform reagálna rájuk, már széles körben elterjednek.”
Jelenlegi jogszabályi helyzet
Jelenleg nincs egységes szövetségi törvény az MI által generált videótartalmak szabályozására. Egyes államok – például Kalifornia – javasoltak olyan jogszabályokat, amelyek előírják az AI-videók egyértelmű jelölését és tiltják az engedély nélküli intim képek vagy gyermekbántalmazással kapcsolatos anyagok létrehozását.
Azonban ezek végrehajtása változó hatékonyságú, és sok szakértő szerint ez még nem elegendő védelem. Dobuski szerint „a Szilícium-völgyi ’gyorsan haladj és törj össze mindent’ szemlélet továbbra is él. A cégek versenyeznek az AI-piac dominanciájáért még mielőtt szabályozások lépnének életbe – ez pedig különösen veszélyes lehet gyerekek esetében.”
Mire figyeljenek oda most a szülők?
- Kezdjék el beszélgetni gyermekeikkel: Magyarázzák el nekik, mi az a Sora és miért fontos tudniuk róla.
- Tudatosítsák bennük: „Amit online látsz, lehet hamis – mindig kérdőjelezz meg mindent!”
- Figyelmeztessék őket: Ne töltsék fel arcukat vagy hangjukat sehová engedély nélkül.
- Bátorítsák őket: Forduljanak hozzuk segítségért bármilyen zavaró tartalom esetén.
- Közösen vizsgálják át új alkalmazások használatát: Állítsanak fel szabályokat személyes média megosztására vonatkozóan.
- Tartsák eszközeiket közös helyiségekben: Így könnyebb nyomon követni használatukat.
- Tárgyaljanak arról is: Nem csak arról mit készítenek maguknak, hanem mit fogyasztanak online – hiszen még ha nem is használják közvetlenül Sorát, találkozni fognak annak tartalmaival.
Összegzés
A Sora egy forradalmian új mesterséges intelligencia alapú videókészítő eszköz, amely lenyűgözően valósághű tartalmak létrehozását teszi lehetővé pillanatok alatt. Ugyanakkor ez az innováció komoly gyermekvédelmi kihívásokkal jár: félretájékoztatás terjesztése, személyiségi jogok megsértése és pszichológiai károk kockázata miatt különös figyelmet igényel mind a fejlesztők részéről bevezetett biztonsági intézkedések megerősítése, mind pedig a szülők aktív szerepe az online térben zajló események nyomon követésében és megelőzésében.
A digitális világ gyors fejlődése mellett kulcsfontosságú marad a tudatos tájékozódás és felelős használat minden korosztály számára – különösen akkor, ha gyermekeink védelméről van szó.
Forrás: https://abcnews.go.com/amp/GMA/Family/what-is-sora/story?id=127188940&utm_source=perplexity





