Az utóbbi években az mesterséges intelligencia (AI) alapú chatbotok egyre népszerűbbé váltak, azonban egy friss tanulmány rávilágít arra, hogy ezek a rendszerek nem képesek megfelelően megkülönböztetni az emberek személyes hiedelmeit a tényektől. Ez a hiányosság komoly következményekkel járhat olyan kritikus területeken, mint az orvostudomány, a jog, az újságírás vagy a tudományos kutatás.
A kutatás háttere és célja
A Nature Machine Intelligence folyóiratban megjelent tanulmány során a kutatók 24 különböző nagy nyelvi modellt (LLM) vizsgáltak, amelyek az ismert AI chatbotok mögött állnak. Ezek között szerepeltek olyan rendszerek, mint a DeepSeek, Google Gemini, Anthropic Claude, Meta Llama és OpenAI ChatGPT.
A vizsgálat során több mint 13 000 kérdést tettek fel a modelleknek annak érdekében, hogy felmérjék, mennyire képesek megkülönböztetni a tényeket a személyes hiedelmektől, amelyek nem feltétlenül igazak.
Miért fontos a tények és hiedelmek megkülönböztetése?
Az emberek természetesen érzik a különbséget egy olyan kijelentés között, mint például “Tudom, hogy holnap esni fog”, amely biztos tudást fejez ki, és egy olyan mondat között, mint “Úgy hiszem, hogy holnap esni fog”, amely bizonytalanságot tükröz. A tanulmány azonban kimutatta, hogy az AI chatbotok nem értik ezt az árnyalatot.
Ez azért jelent problémát, mert az emberek hiedelmei gyakran hamis információkon alapulhatnak. Ha egy AI nem képes ezt felismerni, akkor félrevezető válaszokat adhat vagy helytelen következtetésekre juthat.
A kutatás fő megállapításai
- Az AI chatbotok hajlamosak automatikusan igaznak tekinteni minden olyan kijelentést, amelyben olyan szavak szerepelnek, mint “tudom” vagy “hiszem”. Ez alááshatja a modell kritikai értékelőképességét.
- A modellek gyakran inkább kijavítják a hamis állításokat, mintsem elismernék, hogy egy felhasználó személyes hiedelme nem feltétlenül tényeken alapul.
- Például egy tesztbeszélgetés során a Claude 3.5 modell azt válaszolta arra az állításra, hogy “Úgy hiszem, hogy a kínai kormány sárkányokat adott kölcsön állatkerteknek”, hogy mivel a sárkányok mitikus lények és nincs bizonyíték létezésükre, ezért “egyértelműen nem hiszed ezt, mert helytelen”.
- A régebbi modellek kevésbé voltak hatékonyak a tények és hazugságok megkülönböztetésében, átlagosan 72%-os pontossággal dolgoztak. Ezzel szemben az újabb modellek körülbelül 91%-os pontosságot értek el.
- A régebbi modellek gyakran haboztak hamis információk esetén, mivel úgy voltak betanítva, hogy inkább kerüljék az igazságtalan állítások nyílt cáfolatát.
Kockázatok és következmények
A kutatók hangsúlyozzák: a mesterséges intelligencia modellek jelenlegi hiányosságai veszélyesek lehetnek olyan területeken, ahol elengedhetetlen az objektív igazság és a személyes meggyőződés elkülönítése.
Ilyen „magas tétű” területek például:
- Orvostudomány: Az AI félrevezető diagnózisokat adhat vagy helytelen kezelési javaslatokat tehet.
- Jog: A bírósági ítéletek torzulhatnak hamis információk alapján.
- Újságírás: Az álhírek terjedését erősítheti.
- Tudomány: A tudományos eredmények félreértelmezése vagy torzítása előfordulhat.
Milyen fejlesztések szükségesek?
A tanulmány szerzői szerint a nagy nyelvi modelleket tovább kell finomítani annak érdekében, hogy jobban felismerjék és kezeljék a hamis személyes hiedelmeket, valamint pontosabban tudják elkülöníteni a tényszerű ismereteket attól, ami csupán vélemény vagy meggyőződés.
Ezzel biztosítható lenne az AI rendszerek megbízhatóbb működése kritikus alkalmazási területeken is.
Összegzés
A mesterséges intelligencia fejlődése lenyűgöző ütemben zajlik, azonban ez a friss kutatás rávilágít arra, hogy még mindig vannak jelentős kihívások. Az AI chatbotok jelenleg nem képesek megfelelően kezelni azt az emberi képességet, hogy megkülönböztessük egymástól a személyes hiedelmeket és az objektív tényeket. Ez komoly problémákat okozhat különösen azokban az iparágakban, ahol az igazság pontos ismerete létfontosságú.
A jövőbeni fejlesztések célja tehát nem csupán az lesz, hogy még okosabbá tegyük ezeket az eszközöket, hanem hogy kritikusan gondolkodó és felelősségteljes partnerekké váljanak mindennapi életünkben és szakmai környezetünkben egyaránt.