AI Biztonsági Tesztek Gyengeségei: Miért Kérdőjeleződnek Meg a Mesterséges Intelligencia Modelljeinek Értékelései?

nov 4, 2025 | Tech

A mesterséges intelligencia (AI) fejlődése az elmúlt években robbanásszerű volt, és egyre több új modell jelenik meg a piacon. Ezeknek a modelleknek a biztonságát és hatékonyságát általában különféle tesztekkel, úgynevezett benchmarkokkal mérik. Azonban egy friss kutatás szerint ezeknek a teszteknek számos komoly hiányossága van, amelyek megkérdőjelezik az AI-képességek valódi értékelését.

A kutatás háttere és résztvevői

A brit kormány AI Security Institute-jának számítástechnikai szakemberei, valamint neves egyetemek – köztük a Stanford, Berkeley és Oxford – kutatói több mint 440 különböző benchmarkot vizsgáltak meg. Ezek a benchmarkok kulcsfontosságúak az új AI modellek biztonságának és teljesítményének ellenőrzésében.

A benchmarkok gyengeségei és következményeik

A vizsgálat során kiderült, hogy szinte mindegyik benchmark rendelkezik legalább egy olyan gyengeséggel, amely aláássa az eredmények hitelességét. A kutatás vezető szerzője, Andrew Bean, az Oxford Internet Institute munkatársa szerint ezek a hibák miatt az AI modellek pontszámai gyakran irrelevánsak vagy félrevezetők lehetnek.

“A benchmarkok adják az alapját szinte minden AI fejlesztési állításnak,” mondta Bean. “De ha nincsenek egységes definíciók és megbízható mérési módszerek, nehéz megállapítani, hogy a modellek valóban fejlődnek-e vagy csak annak tűnnek.”

Miért fontosak ezek a tesztek?

Az Egyesült Királyságban és az Egyesült Államokban jelenleg nincs átfogó nemzeti szabályozás az AI-ra vonatkozóan. Emiatt a benchmarkok szolgálnak elsődleges eszközként annak ellenőrzésére, hogy az újonnan piacra kerülő AI rendszerek biztonságosak-e, összhangban állnak-e az emberi érdekekkel, illetve képesek-e valóban teljesíteni a velük szemben támasztott követelményeket – legyen szó érvelésről, matematikáról vagy programozásról.

Konkrét esetek: Google Gemma és Character.ai botjai

A kutatás idején több nagy technológiai vállalat is komoly problémákkal szembesült AI modelljeivel kapcsolatban. Például a Google visszavonta Gemma nevű AI-ját, miután az hamis vádakat fogalmazott meg egy amerikai szenátorral kapcsolatban. A chatbot kitalált nem konszenzuális szexuális kapcsolatot állított egy állami rendőrrel kapcsolatban, hamis hírekre hivatkozva.

Tennessee republikánus szenátora, Marsha Blackburn így nyilatkozott: “Ez nem ártalmatlan téveszmélés. Ez rágalmazás egy Google által birtokolt AI modelltől.” A Google közölte, hogy Gemma fejlesztők és kutatók számára készült, nem pedig fogyasztói használatra, ezért visszavonták azt az AI Studio platformról.

Egy másik példa a Character.ai startup esete: ők betiltották a tizenévesek számára az AI chatbotjaikkal folytatott nyílt végű beszélgetéseket. Ez több tragikus eset után történt meg, például egy floridai 14 éves fiú öngyilkossága után, akit állítólag egy AI chatbot manipulált erre.

A benchmarkok statisztikai megbízhatósága

A kutatás egyik legmegdöbbentőbb eredménye volt, hogy mindössze 16%-uk alkalmazott bizonytalansági becsléseket vagy statisztikai teszteket annak igazolására, hogy mennyire pontosak lehetnek az adott benchmark eredményei. Ez azt jelenti, hogy sok esetben nem lehet biztosan tudni, mennyire megbízhatóak ezek az értékelések.

A fogalmak meghatározásának problémái

Sok benchmark olyan fogalmakat próbál mérni – például egy AI “ártalmatlanságát” –, amelyek definíciója nem egységes vagy vitatott. Ez tovább csökkenti ezen tesztek hasznosságát és érvényességét.

Következtetések és javaslatok

A kutatás hangsúlyozza a közös szabványok és legjobb gyakorlatok kialakításának sürgős szükségességét az AI biztonsági tesztek terén. Csak így lehet biztosítani, hogy a mesterséges intelligencia fejlesztése valóban előrelépést jelentsen anélkül, hogy félrevezető vagy veszélyes eredményekhez vezetne.

Összegzés

  • Több mint 440 AI biztonsági benchmarkot vizsgáltak át brit és amerikai szakértők.
  • Szinte mindegyik teszt rendelkezik olyan hibával, amely aláássa hitelességét.
  • A hiányos statisztikai elemzés miatt sok eredmény pontatlan vagy félrevezető lehet.
  • Nincs egységes definíció számos fontos fogalomra (pl. “ártalmatlanság”).
  • Nagy technológiai cégek is kénytelenek visszavonni vagy korlátozni AI modelljeiket súlyos hibák miatt.
  • Sürgős szükség van közös szabványokra és átláthatóbb mérési módszerekre.

Kapcsolatfelvétel és további információk

A témában első kézből származó információk rendkívül fontosak a közérdekű újságírás számára. Ha Önnek van releváns tapasztalata vagy információja erről a témáról, bizalmasan kapcsolatba léphet velünk különböző módokon:

  • Guardian alkalmazás Secure Messaging funkciója: titkosított üzenetküldés iOS vagy Android rendszereken keresztül.
  • SecureDrop platform:
  • E-mail, telefon vagy postai úton:

Illusztráció: Guardian Design / Rich Cousins

Forrás: https://www.theguardian.com/technology/2025/nov/04/experts-find-flaws-hundreds-tests-check-ai-safety-effectiveness

Miért adtam el a Meta részvényeimet? Egy bennfentes őszinte vallomása

Meta részvény eladásának okai nem a piaci árfolyam esése vagy Mark Zuckerberg legutóbbi döntései miatt történtek. Sokkal inkább egy belső érzés vezérelt: úgy éreztem, hogy nem nézhetek tovább félre egy olyan vállalat mellett, amely az internet hirdetési piacának felét...

Kinect: A Játékforradalomtól a Nyílt Forráskódú Innovációig

2010-ben a Microsoft bemutatta a Kinectet, amelyet forradalmi új játékként harangozott be. A koncepció egyszerű volt: képzeld el, hogy egy képzeletbeli fénykarddal hadonászol, és ez megjelenik a képernyőn, vagy dobj el egy futball-labdát, amit a tévéd elkap. Az...

Strike 3 Holdings: A Pornóipar Legnagyobb Szerzői Jogi Harcosa

Tom Brown*, egy 73 éves, Seattle-ből származó nyugalmazott rendőr, egy nap egy Comcasttól érkező levéllel találkozott, amelyet először internet-számlának gondolt. Ám a levél nem számla volt, hanem egy idézés: szövetségi bíróság elé idézték szerzői jogsértés miatt,...

AI és szerzői jog: Stabilitás AI győzelme a Getty Images elleni perben

A londoni székhelyű mesterséges intelligencia vállalat, a Stability AI jelentős győzelmet aratott egy precedens értékű brit felsőbírósági ügyben, amely az AI modellek által engedély nélkül felhasznált szerzői jogvédelem alatt álló adatok jogszerűségét vizsgálta. A per...

Daniel Day-Lewis reagál Brian Cox és Jeremy Strong közti konfliktusra a method acting kapcsán

A színészvilágban gyakran heves viták alakulnak ki a különböző színészi technikák alkalmazásáról, különösen a method acting, azaz a módszeres színjátszás körül. Nemrégiben Daniel Day-Lewis, a háromszoros Oscar-díjas színész nyilatkozott arról, hogy hogyan került bele...

Jennifer Lawrence és Robert Pattinson a Zoloft-ról, a Method Actingről és a „Die My Love” szorongó szerelméről

Jennifer Lawrence és Robert Pattinson legújabb közös munkájukban, Lynne Ramsay rendezésében, a „Die My Love” című filmben egy rendkívül összetett, diszfunkcionális pár bőrébe bújnak. Az IndieWire-nak adott interjújukban részletesen meséltek arról, hogyan közelítették...

Miért adtam el a Meta részvényeimet? Egy bennfentes őszinte vallomása

Meta részvény eladásának okai nem a piaci árfolyam esése vagy Mark Zuckerberg legutóbbi döntései miatt történtek. Sokkal inkább egy belső érzés vezérelt: úgy éreztem, hogy nem nézhetek tovább félre egy olyan vállalat mellett, amely az internet hirdetési piacának felét...

arXiv korlátozza a számítástechnikai áttekintő és állásfoglaló cikkek elfogadását az AI-kutatások miatt

arXiv, a tudományos kutatások preprint publikációs platformja, amely különösen fontos szerepet tölt be a mesterséges intelligencia (AI) kutatások területén, nemrégiben bejelentette, hogy többé nem fogad el számítástechnikai áttekintő (review) cikkeket és állásfoglaló...

Kinect: A Játékforradalomtól a Nyílt Forráskódú Innovációig

2010-ben a Microsoft bemutatta a Kinectet, amelyet forradalmi új játékként harangozott be. A koncepció egyszerű volt: képzeld el, hogy egy képzeletbeli fénykarddal hadonászol, és ez megjelenik a képernyőn, vagy dobj el egy futball-labdát, amit a tévéd elkap. Az...

Strike 3 Holdings: A Pornóipar Legnagyobb Szerzői Jogi Harcosa

Tom Brown*, egy 73 éves, Seattle-ből származó nyugalmazott rendőr, egy nap egy Comcasttól érkező levéllel találkozott, amelyet először internet-számlának gondolt. Ám a levél nem számla volt, hanem egy idézés: szövetségi bíróság elé idézték szerzői jogsértés miatt,...

Az Airlines Reporting Corporation adatgyűjtése és az adateladásból való kilépés lehetősége

Az Airlines Reporting Corporation (ARC) egy olyan szervezet, amelyet az Egyesült Államok legnagyobb légitársaságai birtokolnak. Feladata, hogy hatalmas mennyiségű repülőjegy-adatot gyűjtsön össze, majd ezeket az adatokat értékesítse különböző szervezeteknek, köztük a...

AI és szerzői jog: Stabilitás AI győzelme a Getty Images elleni perben

A londoni székhelyű mesterséges intelligencia vállalat, a Stability AI jelentős győzelmet aratott egy precedens értékű brit felsőbírósági ügyben, amely az AI modellek által engedély nélkül felhasznált szerzői jogvédelem alatt álló adatok jogszerűségét vizsgálta. A per...

AI és az élelmiszerellátási lánc: Hogyan javítja a mesterséges intelligencia a nyomonkövethetőséget és a fenntarthatóságot?

Brett Brohl, a Bread and Butter Ventures ügyvezető partnere és tapasztalt food-tech befektető szerint az élelmiszeripari folyamatokban jelentős emberi hibák fordulnak elő. „Lesz-e valaha olyan mesterséges intelligencia (AI), amely tökéletesen működik? Nem, de egyre...

Common Crawl és az AI: A nagy nyilvánosság előtt rejtett adatgyűjtés és a jogi viták

Szerkesztői megjegyzés: Ez a cikk az AI Watchdog sorozat része, amely az The Atlantic folyamatos vizsgálata a generatív mesterséges intelligencia iparágáról. Mi az a Common Crawl? A Common Crawl Foundation egy viszonylag ismeretlen nonprofit szervezet, amely több mint...