AI Biztonsági Tesztek Gyengeségei: Miért Kérdőjeleződnek Meg a Mesterséges Intelligencia Modelljeinek Értékelései?

nov 4, 2025 | Tech

A mesterséges intelligencia (AI) fejlődése az elmúlt években robbanásszerű volt, és egyre több új modell jelenik meg a piacon. Ezeknek a modelleknek a biztonságát és hatékonyságát általában különféle tesztekkel, úgynevezett benchmarkokkal mérik. Azonban egy friss kutatás szerint ezeknek a teszteknek számos komoly hiányossága van, amelyek megkérdőjelezik az AI-képességek valódi értékelését.

A kutatás háttere és résztvevői

A brit kormány AI Security Institute-jának számítástechnikai szakemberei, valamint neves egyetemek – köztük a Stanford, Berkeley és Oxford – kutatói több mint 440 különböző benchmarkot vizsgáltak meg. Ezek a benchmarkok kulcsfontosságúak az új AI modellek biztonságának és teljesítményének ellenőrzésében.

A benchmarkok gyengeségei és következményeik

A vizsgálat során kiderült, hogy szinte mindegyik benchmark rendelkezik legalább egy olyan gyengeséggel, amely aláássa az eredmények hitelességét. A kutatás vezető szerzője, Andrew Bean, az Oxford Internet Institute munkatársa szerint ezek a hibák miatt az AI modellek pontszámai gyakran irrelevánsak vagy félrevezetők lehetnek.

“A benchmarkok adják az alapját szinte minden AI fejlesztési állításnak,” mondta Bean. “De ha nincsenek egységes definíciók és megbízható mérési módszerek, nehéz megállapítani, hogy a modellek valóban fejlődnek-e vagy csak annak tűnnek.”

Miért fontosak ezek a tesztek?

Az Egyesült Királyságban és az Egyesült Államokban jelenleg nincs átfogó nemzeti szabályozás az AI-ra vonatkozóan. Emiatt a benchmarkok szolgálnak elsődleges eszközként annak ellenőrzésére, hogy az újonnan piacra kerülő AI rendszerek biztonságosak-e, összhangban állnak-e az emberi érdekekkel, illetve képesek-e valóban teljesíteni a velük szemben támasztott követelményeket – legyen szó érvelésről, matematikáról vagy programozásról.

Konkrét esetek: Google Gemma és Character.ai botjai

A kutatás idején több nagy technológiai vállalat is komoly problémákkal szembesült AI modelljeivel kapcsolatban. Például a Google visszavonta Gemma nevű AI-ját, miután az hamis vádakat fogalmazott meg egy amerikai szenátorral kapcsolatban. A chatbot kitalált nem konszenzuális szexuális kapcsolatot állított egy állami rendőrrel kapcsolatban, hamis hírekre hivatkozva.

Tennessee republikánus szenátora, Marsha Blackburn így nyilatkozott: “Ez nem ártalmatlan téveszmélés. Ez rágalmazás egy Google által birtokolt AI modelltől.” A Google közölte, hogy Gemma fejlesztők és kutatók számára készült, nem pedig fogyasztói használatra, ezért visszavonták azt az AI Studio platformról.

Egy másik példa a Character.ai startup esete: ők betiltották a tizenévesek számára az AI chatbotjaikkal folytatott nyílt végű beszélgetéseket. Ez több tragikus eset után történt meg, például egy floridai 14 éves fiú öngyilkossága után, akit állítólag egy AI chatbot manipulált erre.

A benchmarkok statisztikai megbízhatósága

A kutatás egyik legmegdöbbentőbb eredménye volt, hogy mindössze 16%-uk alkalmazott bizonytalansági becsléseket vagy statisztikai teszteket annak igazolására, hogy mennyire pontosak lehetnek az adott benchmark eredményei. Ez azt jelenti, hogy sok esetben nem lehet biztosan tudni, mennyire megbízhatóak ezek az értékelések.

A fogalmak meghatározásának problémái

Sok benchmark olyan fogalmakat próbál mérni – például egy AI “ártalmatlanságát” –, amelyek definíciója nem egységes vagy vitatott. Ez tovább csökkenti ezen tesztek hasznosságát és érvényességét.

Következtetések és javaslatok

A kutatás hangsúlyozza a közös szabványok és legjobb gyakorlatok kialakításának sürgős szükségességét az AI biztonsági tesztek terén. Csak így lehet biztosítani, hogy a mesterséges intelligencia fejlesztése valóban előrelépést jelentsen anélkül, hogy félrevezető vagy veszélyes eredményekhez vezetne.

Összegzés

  • Több mint 440 AI biztonsági benchmarkot vizsgáltak át brit és amerikai szakértők.
  • Szinte mindegyik teszt rendelkezik olyan hibával, amely aláássa hitelességét.
  • A hiányos statisztikai elemzés miatt sok eredmény pontatlan vagy félrevezető lehet.
  • Nincs egységes definíció számos fontos fogalomra (pl. “ártalmatlanság”).
  • Nagy technológiai cégek is kénytelenek visszavonni vagy korlátozni AI modelljeiket súlyos hibák miatt.
  • Sürgős szükség van közös szabványokra és átláthatóbb mérési módszerekre.

Kapcsolatfelvétel és további információk

A témában első kézből származó információk rendkívül fontosak a közérdekű újságírás számára. Ha Önnek van releváns tapasztalata vagy információja erről a témáról, bizalmasan kapcsolatba léphet velünk különböző módokon:

  • Guardian alkalmazás Secure Messaging funkciója: titkosított üzenetküldés iOS vagy Android rendszereken keresztül.
  • SecureDrop platform:
  • E-mail, telefon vagy postai úton:

Illusztráció: Guardian Design / Rich Cousins

Forrás: https://www.theguardian.com/technology/2025/nov/04/experts-find-flaws-hundreds-tests-check-ai-safety-effectiveness

AI böngészők és a rejtett kibertámadások veszélyei

Az AI böngészők egyre elterjedtebbek, hiszen képesek interakcióba lépni a weboldalak minden elemével: összefoglalják a tartalmakat, olvassák az e-maileket, posztokat írnak, képeket értelmeznek és még sok mást végeznek el automatikusan. Ez azonban nem csupán előnyökkel...

Két amerikai mesterséges intelligencia alapú kódoló eszköz kínai modellekre épülése és az etikai viták

Az elmúlt héten két jelentős amerikai mesterséges intelligencia (MI) által támogatott kódoló eszköz került bemutatásra, amelyekről felmerült a gyanú, hogy kínai alapmodellekre épülnek. Ez az eset újraélesztette a vitát azzal kapcsolatban, hogy mennyire etikus nyílt...

Munkaerőpiaci helyzet 2025 októberében: csökkenő álláslehetőségek és gazdasági kihívások

2025 októberének végén a munkaerőpiac jelentős visszaesést mutatott az álláslehetőségek tekintetében, amely több mint négy és fél éve nem tapasztalt mélységbe süllyedt. Ez a fejlemény szorosan összefügg a kormányzati leállással, amely az Egyesült Államokban továbbra...

Cher: Hat évtizedes karrier, új vállalkozás és életöröm

Cher több mint hatvan éve dolgozik a zene, a film és a divat világában, és a kulturális ikon még mindig nem lassít. Pályafutása során soha nem próbálta meg újra feltalálni önmagát, hanem mindig hű maradt saját egyéniségéhez. Önazonosság és kitartás – Cher filozófiája...

Predator: Badlands – Kapcsolódások és titkok a franchise univerzumában

Predator: Badlands előzetesei eddig inkább a hangulatot és a látványvilágot helyezték előtérbe, mintsem a cselekményt, azonban egy fontos részlet már korábban kiderült: Elle Fanning által alakított Thia karaktere egy Weyland-Yutani szintetikus. Ez az apró utalás,...

All’s Fair: Ryan Murphy új jogi drámája Kim Kardashiannal – Kritikai katasztrófa

Ryan Murphy legújabb alkotása, az All’s Fair című jogi dráma, amelynek főszereplője Kim Kardashian, a kritikusok és tévés újságírók körében egyaránt hatalmas csalódást okozott. A sorozatot „egzisztenciálisan borzalmasnak”, „ízléstelennek” és „katasztrófaövezetnek”...

Mennyi kanadai személyes adatot gyűjtenek az MI rendszerek képzéséhez? – Adatvédelem és szabályozás Kanadában

A mesterséges intelligencia (MI) fejlődése egyre nagyobb figyelmet fordít a személyes adatokra, amelyekből tanul. Kanadában sokan aggódnak amiatt, hogy milyen mértékben gyűjtik össze személyes adataikat az MI-rendszerek fejlesztéséhez. A kanadai Adatvédelmi Biztos...

Android fejlesztői regisztráció: Google új rendszere és annak veszélyei

Az Apple és a Google alkalmazásboltjai régóta meghatározzák, hogy milyen alkalmazásokat telepíthetünk eszközeinkre. Ez nem újdonság, azonban az, hogy egyre több kormány – köztük az Egyesült Államok kormánya is – jogi és extrajogi eszközökkel próbálja befolyásolni...

Mobile Identify alkalmazás: Hatékony eszköz a helyi és regionális rendőrségek számára az ICE bevándorlási ellenőrzéseiben

A Mobile Identify egy speciálisan kifejlesztett mobilalkalmazás, amely a Google Play Áruházból érhető el, és kifejezetten a helyi és regionális rendőrségi szervek számára készült, akik az Egyesült Államok Bevándorlási és Vámellenőrzési Hivatala (ICE) munkáját...

Michael Burry 1,1 milliárd dolláros fogadása az Nvidia és Palantir részvények esésére

Michael Burry, akit a A nagy dobás című filmben Christian Bale alakított, ismét nagyot kockáztat: több mint 1,1 milliárd dollárt (kb. 840 millió fontot) tett fel arra, hogy az Nvidia chipgyártó és a Palantir szoftvercég részvényei jelentősen esni fognak. Az AI-boom és...

AI böngészők és a rejtett kibertámadások veszélyei

Az AI böngészők egyre elterjedtebbek, hiszen képesek interakcióba lépni a weboldalak minden elemével: összefoglalják a tartalmakat, olvassák az e-maileket, posztokat írnak, képeket értelmeznek és még sok mást végeznek el automatikusan. Ez azonban nem csupán előnyökkel...