Szerző: Emelie Andersin, PhD hallgató, Leiden Egyetem
Bevezető
2023. október 7-e óta a Gázai övezetben zajló konfliktus súlyos humanitárius válságot idézett elő. Az ENSZ Humanitárius Ügyek Koordinációs Hivatala (OCHA) szerint legalább 64 656 palesztin vesztette életét, köztük több mint 18 000 gyermek. Egy volt izraeli ezredes megerősítette, hogy több mint 200 000 palesztin sérült vagy halt meg az összecsapások során. Francesca Albanese, az ENSZ különleges jelentéstevője az elfoglalt palesztin területeken, népirtásnak minősítette Izrael cselekedeteit Gázában, amit egy ENSZ-bizottság is megerősített.
A konfliktusban Izrael az arcfelismerő technológiákra (FRT) és mesterséges intelligencia alapú döntéstámogató rendszerekre (AI-DSS) támaszkodik a célpontok azonosításában, ami komoly jogi és etikai kérdéseket vet fel.
Az AI-DSS és arcfelismerő technológiák alkalmazása a Gázai övezetben
Az izraeli védelmi erők (IDF) többféle AI-DSS rendszert használnak, köztük a „Lavender” és a „Where’s Daddy” nevű programokat. Ezeket a rendszereket arra fejlesztették ki, hogy azonosítsák a Hamász vagy a Palesztin Iszlám Dzsihád (PIJ) tagjait, illetve nyomon kövessék mozgásukat.
Lavender: célpontkijelölő rendszer
A Lavender egy felügyelt tanuláson alapuló rendszer, amely különböző attribútumok alapján osztályozza a palesztinokat egy 1-től 100-ig terjedő skálán annak valószínűségére vonatkozóan, hogy kapcsolatban állnak-e terrorszervezetekkel. A rendszer nemcsak azonosítja a gyanúsítottakat, hanem elérhetőségeiket – telefonszámukat és lakcímüket – is megadja.
Where’s Daddy: mozgáskövető rendszer
A Where’s Daddy nyomon követi azokat az egyéneket, akiket a Lavender jelölt meg. Amikor egy személy hazatér családjához, megfigyelés alá kerül, és bombázásra jelölik ki. Ez a gyakorlat súlyos nemzetközi humanitárius jogi aggályokat vet fel, mivel civil családtagok is áldozatul eshetnek.
Arcfelismerő ellenőrzőpontok és tömeges biometrikus adatgyűjtés
A Forensic Architecture dokumentálta, hogy Izrael kiterjesztette arcfelismerő megfigyelési programját Gázában. Az ENSZ OCHA jelentése szerint 2023. november 23-án belső menekülteket kényszerítettek arra, hogy személyazonosító okmányaikat bemutassák és arcfelismerő szkennelésen essenek át.
Ezek az ellenőrzőpontok kényszerítő biometrikus adatgyűjtési helyekké váltak, ahol palesztin civilek tudtukon kívül kerülnek megfigyelés alá. Több visszaélésről számoltak be: ártatlan civileket tévesen azonosítottak terrorként, ami jogtalan letartóztatásokhoz és kihallgatásokhoz vezetett.
Mesterséges intelligencia és hamis pozitív találatok kockázata
Az arcfelismerő technológia (FRT) képes felismerni vagy igazolni egy személy identitását. Ha a Lavender ilyen adatokat használ fel, akkor képes lehet előzetesen regisztrált személyeket megtalálni egy biometrikus adatbázisban. Ugyanakkor ezek a rendszerek nem képesek megállapítani egy személy harci státuszát vagy polgári védettségét.
A nemzetközi humanitárius jog (IHL) egyik alapelve az elkülönítés elve (Article 48., AP I), amely megköveteli a civilek és katonai célpontok szigorú megkülönböztetését. Az AI-DSS rendszerek hibái – például hamis pozitív találatok – súlyosan veszélyeztetik ezt az elvet.
Különösen problémás lehet ez olyan környezetben, mint Gáza, ahol rossz fényviszonyok és mozgás nehezíti az arcfelismerést. Egy tévesen besorolt civil könnyen válhat célponttá.
Algoritmikus torzítások és változó definíciók
A Lavender olyan paramétereket használ, mint kommunikációs minták vagy eszközhasználat korábbi militánsokkal összefüggésben. Ezek azonban nem feltétlenül jelentenek bizonyítékot terrorszervezeti tagságra, így sok civil is tévesen besorolható.
Egy belső forrás szerint a „Hamász-tag” definíciója folyamatosan bővült, így például polgári védelemben vagy rendészetben dolgozókat is besoroltak militánsként. Ez jelentős mértékben aláássa az elkülönítés elvét és növeli a polgári áldozatok számát.
Kényszerített biometrikus adatgyűjtés – jogi aggályok
A palesztinok biometrikus adatainak kényszerített begyűjtése súlyos nemzetközi jogi problémákat vet fel. A Genfi Egyezmények IV. jegyzőkönyvének 31. cikke tiltja minden fizikai vagy erkölcsi kényszert védett személyekkel szemben információ megszerzésére.
A Forensic Architecture dokumentumai szerint az IDF fegyveres fenyegetéssel kényszerítette át a civileket ellenőrzőpontokon biometrikus szkennelésekre az október 13-i evakuálási parancs után. Ez erkölcsi kényszernek minősülhet.
A károk mintázatai és emberi tényezők hiánya
A jelentések szerint az IDF tisztában volt azzal, hogy sok civil tévesen kerül besorolásra militánsként, mégsem vezettek be megfelelő felügyeleti mechanizmusokat ezek kiszűrésére. A célpontkijelölési folyamatot inkább a sebesség és mennyiség határozta meg minőség helyett.
Ez azt eredményezheti, hogy katonai parancsnokok túlzottan támaszkodnak az AI-rendszerek ajánlásaira anélkül, hogy kritikus elemzést végeznének – ez automatizációs torzításhoz vezethet.
A nemzetközi humanitárius jogban a proporcionalitás elve szubjektív emberi ítéletet igényel; azonban az AI-DSS statisztikai eredményei könnyen félrevezethetik döntéshozókat.
Következtetések
Izrael AI-alapú döntéstámogató rendszereinek és arcfelismerési programjainak alkalmazása Gázában rávilágít arra, hogy ezek a technológiák miként növelhetik a polgári áldozatok számát és alááshatják a nemzetközi humanitárius jog alapelveit.
A hibás adatkészletekre épülő rendszerek használata megfelelő felügyelet nélkül komoly jogsértéseket eredményezhet. Fontos lenne korlátozni ezen technológiák szerepét különösen polgári jelenlét esetén, valamint lassítani a katonai döntéshozatali folyamatokat annak érdekében, hogy csökkentsék a civil károkat.
Anna Rosalie Griepl szakértő szerint ugyanakkor lehetséges olyan AI-DSS rendszereket fejleszteni és alkalmazni, amelyek elősegítik az IHL betartását és csökkentik a polgári áldozatokat – ehhez azonban állami akarat szükséges.