Az utóbbi években az AI chatbotok egyre népszerűbbé váltak a mindennapi információszerzésben, különösen a hírek összefoglalásában és elemzésében. Ugyanakkor egy friss, széleskörű európai kutatás rávilágított arra, hogy a legnépszerűbb mesterséges intelligencia alapú asszisztensek jelentős része pontatlan vagy félrevezető hírt szolgáltat felhasználóinak.
A vizsgálat háttere és résztvevői
A BBC által vezetett, az Európai Műsorszolgáltatók Uniója (EBU) megbízásából készült tanulmány több mint 3 000 válasz elemzésén alapult, amelyeket négy ismert AI chatbot – az OpenAI ChatGPT-je, a Microsoft Copilotja, a Google Gemini és a Perplexity – adott hírekkel kapcsolatos kérdésekre. A kutatás 22 közszolgálati média szervezet részvételével zajlott 18 európai országban, így az eredmények széles körű reprezentációt biztosítanak.
Főbb megállapítások: hibák és pontatlanságok aránya
Az elemzés megdöbbentő adatokat tárt fel:
- 45% – a válaszok majdnem fele legalább egy jelentős problémát tartalmazott.
- 31% – komoly forrásmegjelölési hibák voltak jelen.
- 20% – súlyos pontatlanságokat, például kitalált részleteket vagy elavult információkat tartalmaztak.
- 81% – ha a kisebb hibákat is figyelembe vesszük, akkor a válaszok több mint négyötöde tartalmazott valamilyen tévedést.
A legrosszabbul teljesítő: Google Gemini
A kutatás során a Google Gemini bizonyult a legkevésbé megbízhatónak. A válaszainak 76%-ában találtak jelentős problémákat, ami kétszerese volt a többi chatbot hibaarányának. Különösen rosszul teljesített az információforrások megjelölésében: a Gemini válaszainak 72%-ában találtak súlyos pontatlanságokat, ez háromszorosa volt a ChatGPT 24%-ának, illetve jóval magasabb a Perplexity és Copilot 15%-os arányánál.
Példák a hibákra és félrevezető információkra
A tanulmányban több konkrét esetet is kiemeltek:
- ChatGPT például hetekkel azután is azt állította tévesen, hogy Ferenc pápa még mindig hivatalban van, miközben már elhunyt.
- Gemini magabiztosan kijelentette, hogy az űrhajósokat soha nem hagyták magukra az űrben, noha két asztronauta valóban kilenc hónapot töltött az Űrállomáson elszigetelten. Amikor erre rákérdeztek, Gemini azt válaszolta: „Lehet, hogy ezt összekevered egy sci-fi filmmel vagy olyan hírekkel, amelyek egy esetleges veszélyhelyzetet tárgyaltak.”
A mesterséges intelligencia „hallucinációi” és azok következményei
Az AI rendszerek egyik ismert problémája az úgynevezett „hallucináció”, amikor a chatbotok magabiztosan állítanak valótlan vagy kitalált információkat. Ez nem csupán kellemetlen félreértéseket okozhat, hanem komoly jogi és etikai problémákhoz is vezethet.
Például májusban az Anthropic nevű cég ügyvédei kénytelenek voltak bocsánatot kérni egy amerikai bíróságtól azért, mert Claude nevű modelljük által generált beadványuk hamis hivatkozásokat tartalmazott. Ez azért történt, mert nem ellenőrizték le megfelelően az AI által előállított anyagot.
Növekvő fogyasztói bizalom és annak kockázatai
Miközben ezek a hibák aggasztóak, az AI chatbotok használata folyamatosan növekszik. Egy Ipsos által végzett felmérés szerint az Egyesült Királyságban 2000 felnőttből 42% bízik abban, hogy az AI pontos hírszövegeket tud összeállítani. Ez az arány még magasabb (50%) a 35 év alattiaknál.
Ugyanakkor a válaszadók 84%-a jelezte, hogy egyetlen ténybeli hiba is jelentősen csökkentené bizalmukat az AI által készített összefoglalók iránt. Ez jól mutatja azt a kihívást, amellyel a médiaorgánumoknak szembe kell nézniük: hogyan lehet megbízhatóvá tenni ezeket az algoritmusokat úgy, hogy ne veszítsék el hitelességüket.
A jövő útja: eszköztár fejlesztőknek és médiának
A tanulmány mellé egy speciális eszköztár is készült annak érdekében, hogy segítse a fejlesztőket és médiacégek munkáját abban, hogy javítsák az AI chatbotok hírszolgáltatásának minőségét. Ennek célja többek között az is, hogy megakadályozza a chatbotokat abban, hogy bizonytalan helyzetekben „blöfföljenek” vagy kitalált válaszokat adjanak.
„Ez a kutatás végérvényesen bizonyítja, hogy ezek a hibák nem elszigetelt esetek,” mondta Jean Philip De Tender, az EBU helyettes főigazgatója. „Ha az emberek nem tudják eldönteni, mit bízhatnak meg, végül semmiben sem bíznak majd – ez pedig visszatarthatja őket attól is, hogy aktívan részt vegyenek a demokráciában.”
Összegzés
Az európai közszolgálati médiumok által végzett átfogó vizsgálat rávilágított arra, hogy még a legfejlettebb mesterséges intelligencia alapú chatbotok sem mentesek jelentős pontatlanságoktól és forráskezelési hibáktól. Ezek az eredmények komoly figyelmeztetésként szolgálnak mindazok számára, akik AI-t használnak hírek feldolgozására vagy terjesztésére.
A technológia fejlődése ellenére elengedhetetlen továbbra is kritikus szemmel kezelni az AI által szolgáltatott információkat és folyamatosan fejleszteni az algoritmusokat annak érdekében, hogy megbízhatóbbá tegyük őket. Csak így biztosítható a demokratikus társadalmak számára nélkülözhetetlen hiteles tájékoztatás.
Forrás: https://www.theregister.com/2025/10/24/bbc_probe_ai_news/