Az igazságszolgáltatásban az etika és a pontosság alapvető követelmények. Egy nemrégiben napvilágot látott eset azonban rávilágított arra, hogy a mesterséges intelligencia (AI) alkalmazása a jogi szakmában milyen súlyos problémákat okozhat, ha nem megfelelően használják. Egy bevándorlási ügyvédet, Chowdhury Rahmant azzal vádolták, hogy ChatGPT-szerű szoftvert használt jogi kutatásai elkészítéséhez, miközben olyan jogesetekre hivatkozott, amelyek vagy teljesen kitaláltak, vagy egyáltalán nem relevánsak az ügy szempontjából.
A történet háttere: egy menedékjogi ügy
A botrány egy hondurasi nővérek menedékjogi kérelmének tárgyalása során robbant ki. A két nővér – 29 és 35 évesek – azt állította, hogy hazájukban egy bűnszervezet célpontjai, ezért kértek oltalmat az Egyesült Királyságban. Rahman képviselte őket a bíróságon, ám az ügy végül az Upper Tribunal-hoz került fellebbezésre.
A bíró megállapításai: hamis és irreleváns hivatkozások
Mark Blundell bíró az Upper Tribunal-on elutasította Rahman érveit, megállapítva, hogy sem szóban, sem írásban nem bizonyították a jogi hibát az előző bíró döntésében. Azonban a szokásostól eltérően a bíró egy posztszkriptumban részletesen kifejtette a fellebbezési indokokkal kapcsolatos súlyos problémákat.
Blundell bíró megállapította:
- Rahman 12 jogesetre hivatkozott a dokumentumokban.
- Ezek közül több eset nem létezett, míg mások nem támogatták az állított jogi érveket.
- A bíró tíz ilyen esetet részletezett és bemutatta Rahman állításait ezekkel kapcsolatban.
- Rahman láthatóan nem ismerte mélyrehatóan a hivatkozott eseteket, és nem is tervezte azok tényleges alkalmazását az érvelésében.
- A benyújtott anyagok félrevezetőek voltak.
Mesterséges intelligencia használata és annak következményei
Blundell bíró szerint a legkézenfekvőbb magyarázat arra, hogy miért szerepeltek ilyen pontatlan vagy kitalált hivatkozások, hogy Rahman generatív mesterséges intelligenciát – például ChatGPT-t – használt a fellebbezési indokok megfogalmazására. A bíró kiemelte:
„Az egyik esetet, amelyet Rahman hivatkozott, ChatGPT tévesen alkalmazta hasonló érvek alátámasztására.”
Rahman azt állította, hogy az eltérések csupán a „szerkesztési stílusából” erednek, és elismerte, hogy lehetett némi „zavarosság és homályosság” az anyagában. A bíró azonban határozottan cáfolta ezt:
- A problémák nem egyszerű szerkesztési hibák voltak.
- A hivatkozott jogesetek vagy nem léteztek, vagy nem támogatták az előadott jogi állításokat.
- Valószínűleg Rahman jelentős mértékben támaszkodott AI-ra a dokumentum elkészítésében.
- Továbbá megpróbálta eltitkolni ezt a tényt a bíróság előtt.
A bíró további lépései és etikai aggályok
Mark Blundell bíró fontolóra vette Rahman jelentését a Bar Standards Board felé – ez az etikai szabályozó testület felelős az ügyvédek magatartásának felügyeletéért. A döntés szeptemberben született meg és csak most került nyilvánosságra.
Ez az eset rávilágít arra:
- Milyen veszélyeket rejthet magában az AI használata a jogi szakmában megfelelő ellenőrzés nélkül.
- Hogyan ronthatja az igazságszolgáltatás hitelességét a pontatlan vagy hamis információk terjesztése.
- Milyen fontos szerepe van az ügyvédek felelősségteljes munkavégzésének és az etikai normák betartásának.
Kitekintés: Az AI jövője a jogi szakmában
A mesterséges intelligencia rohamos fejlődése új lehetőségeket kínál a jogi kutatás és dokumentumkészítés terén. Ugyanakkor ez az eset is jól mutatja, hogy milyen komoly kockázatokkal járhat az AI túlzott vagy ellenőrizetlen alkalmazása. A jövőben elengedhetetlen lesz olyan szabályozások kialakítása és betartása, amelyek biztosítják az AI felelős használatát a jog területén.
Az igazságosság és pontosság megőrzése érdekében minden jogász számára alapvető követelmény marad a saját szakmai tudásának folyamatos fejlesztése és a technológiai eszközök körültekintő alkalmazása.