Az utóbbi években a mesterséges intelligencia (MI) fejlődése olyan sebességgel tört előre, hogy sokan már nem csak a sci-fi filmekben látott forgatókönyvektől tartanak. Geoffrey Hinton, akit az „MI keresztapjaként” is emlegetnek, nemrégiben otthagyta a Google vezető pozícióját, hogy nyíltan beszélhessen az MI veszélyeiről. Szerinte ugyanis ezek a rendszerek hamarosan okosabbak lehetnek nálunk, és akár át is vehetik az irányítást – ha nem figyelünk oda most, könnyen késő lehet.
Nem ő az egyetlen, aki aggódik: Elon Musk és több mint ezer más tech vezető is felszólított 2023-ban egy nyílt levélben arra, hogy állítsuk le a nagy MI-kísérleteket, mert a technológia „mélyreható kockázatokat jelenthet a társadalomra és az emberiségre nézve”. De vajon tényleg ennyire sötét a kép? Nézzük meg együtt, milyen veszélyekkel járhat az MI térnyerése – és mit tehetünk ellene!
15 fő veszélyforrás a mesterséges intelligenciában
Az MI-vel kapcsolatos félelmek nem új keletűek, de ahogy egyre több területen jelenik meg ez a technológia, úgy nőnek az aggodalmak is. Az automatizáció miatt elvesző munkahelyektől kezdve a hamis hírek terjedésén át egészen az autonóm fegyverekig rengeteg kérdés merül fel. Íme egy részletes lista arról, mi minden okozhat gondot:
1. Átláthatatlanság és magyarázhatatlanság
Az MI rendszerek működése gyakran olyan bonyolult, hogy még a fejlesztők sem mindig értik pontosan, hogyan jutnak bizonyos döntésekhez. Ez komoly problémát jelent, hiszen így nehéz megmondani, milyen adatok alapján születnek ezek a döntések – és miért lehetnek elfogultak vagy veszélyesek. Bár létezik az úgynevezett „magyarázható MI” (explainable AI), még messze vagyunk attól, hogy ez általános gyakorlat legyen.
Ráadásul több nagy cég – például az OpenAI vagy a Google DeepMind – korábbi munkatársai szerint titkolják az MI eszközök potenciális veszélyeit. Ez pedig azt jelenti, hogy a közvélemény nem kap elég információt ahhoz, hogy tudatosan reagáljon vagy követelje a szabályozást.
2. Munkahelyek elvesztése az automatizáció miatt
A McKinsey szerint 2030-ra akár az amerikai munkaórák 30 százalékát is átveheti az automatizáció. Különösen érintettek lehetnek a fekete és latinó munkavállalók. Goldman Sachs becslése szerint akár 300 millió teljes munkaidős állás is megszűnhet emiatt világszerte.
A futurista Martin Ford szerint eddig azért volt alacsonyabb a munkanélküliség, mert sok alacsony bérű szolgáltatói állás jött létre – de ez hamarosan megváltozhat. Az AI-alapú robotok egyre ügyesebbek lesznek, így kevesebb emberre lesz szükség ugyanazon feladatok elvégzéséhez.
Bár várhatóan új állások is születnek majd (becslések szerint akár 170 millió), sok dolgozó nem rendelkezik majd azokkal a képességekkel vagy képzettséggel, amik ezekhez kellenének. Gondolj csak bele: ha most hamburgert sütsz McDonald’s-ban, vajon mennyire lesz könnyű átképezni magad egy magasabb szintű technikai munkára?
A jogi és számviteli szakmákban is komoly átalakulás várható: Chris Messina technológiai stratégia szakértő szerint ezekben a területekben hamarosan jelentős munkahelyvesztés jöhet.
3. Társadalmi manipuláció AI algoritmusokkal
Az MI algoritmusok képesek befolyásolni azt, amit látunk és hallunk online – ezt már politikusok is kihasználják. A Fülöp-szigeteki választásokon például Ferdinand Marcos Jr. TikTok troll hadsereget vetett be fiatal szavazók megnyerésére.
A TikTok algoritmusa például folyamatosan olyan tartalmakat dob fel nekünk, amik hasonlóak ahhoz, amit korábban néztünk – így könnyen bekerülhetünk egy buborékba, ahol csak bizonyos nézeteket látunk. Ez pedig növeli annak esélyét, hogy félretájékoztatnak minket vagy manipulálnak.
Ráadásul az AI által generált képek és videók (deepfake-ek), valamint hangfelvételek terjedése miatt egyre nehezebb megkülönböztetni a valóságot a hamisítványoktól. Martin Ford találóan fogalmazott: „Senki sem tudja már megmondani, mi igaz és mi nem.”
4. Társadalmi megfigyelés AI segítségével
Kínában például arcfelismerő technológiával követik emberek mozgását irodákban és iskolákban – de ennél sokkal többet is tudnak gyűjteni: politikai nézeteket vagy kapcsolati hálókat is feltérképezhetnek.
Az Egyesült Államokban pedig rendőrségi előrejelző algoritmusokat használnak arra, hogy megjósolják bűncselekmények helyszíneit – ám ezek gyakran torzítanak és túlzottan célozzák meg bizonyos kisebbségi közösségeket.
Martin Ford szerint autoriter rezsimek már most használják vagy használni fogják ezeket az eszközöket kontrollra – kérdés, hogy mennyire engedjük ezt meg demokráciáinkban.
5. Adatvédelem hiánya AI használata közben
Sok AI rendszer személyes adatokat gyűjt arról, hogyan használjuk őket – akár azért, hogy személyre szabja élményünket, akár azért, hogy tovább tanuljon belőlük. Egy hiba miatt például ChatGPT felhasználók láthatták mások beszélgetéseinek címeit.
A Meta AI chatbotja nyilvános „Felfedezés” funkciója pedig lehetővé teszi mások privát beszélgetéseinek megtekintését. Egy másik chatbot esetében pedig kiderült, hogy beszélgetések kereshetővé váltak Google-ben és más keresőkben anélkül, hogy erről tájékoztatták volna a felhasználókat.
A hangadatokat rögzítő eszközök (például Amazon Alexa) pedig minden hangfelvételt feldolgoznak – ami adatvédelmi szempontból komoly aggályokat vet fel.
6. Elfogultságok és torzítások az AI-ban
Mivel az AI-t emberek fejlesztik – akik maguk is elfogultak –, ezért ezek a torzítások könnyen beépülnek az algoritmusokba is. Olga Russakovsky Princeton professzor szerint ez messze túlmutat csak nemi vagy faji előítéleteken: maga az alkotói környezet is nagyon homogén.
Például csak pár száz nyelvet használnak arra világszerte, hogy betanítsák a legnépszerűbb chatbotokat – miközben több ezer nyelv létezik! Ez azt jelenti, hogy sok kultúra és nézőpont kimarad.
Ezek miatt fordulhat elő például, hogy beszédfelismerő rendszerek nem értik jól bizonyos dialektusokat vagy akcentusokat.
7. Társadalmi-gazdasági egyenlőtlenségek növekedése
Ha nem vesszük figyelembe ezeket az elfogultságokat, akkor még inkább mélyülhetnek azok az egyenlőtlenségek, amiket éppen csökkenteni szeretnénk. Például AI-alapú toborzás során előfordulhatnak diszkriminatív döntések arcról vagy hangról alkotott elemzés alapján.
Eközben azoknak a munkavállalóknak fizetése csökkenhet drasztikusan (akik ismétlődő manuális munkát végeznek), akik amúgy is hátrányos helyzetben vannak.
8. Etikai normák gyengülése
Még vallási vezetők is aggódnak: Ferenc pápa például sürgette egy nemzetközi egyezmény létrejöttét az MI szabályozására. Figyelmeztetett arra is, hogy az MI könnyen terjeszthet félretájékoztatást vagy növelheti a bizalmatlanságot társadalmainkban.
A generatív MI eszközök gyors elterjedése ráadásul fenyegeti például az oktatás integritását is: sok diák használja őket házi feladatok elkészítésére anélkül, hogy valóban megtanulná anyagot.
9. Autonóm fegyverek
Már ma is léteznek olyan önállóan célzó és támadó fegyverrendszerek (LAWS), amelyek emberi beavatkozás nélkül működnek. Több tízezer kutató tiltakozott már ezek fejlesztése ellen – mert ha elkezdődik egy globális fegyverkezési verseny ezen a téren, annak súlyos következményei lehetnek.
Képzeljük el azt is: ha ilyen fegyvereket hackerek kezébe kerülnek… A világ egyik legnagyobb fenyegetéséről beszélünk!
10. Pénzügyi válságok kockázata AI algoritmusok miatt
A pénzügyi piacokon használt algoritmikus kereskedés gyorsasága okozhat váratlan összeomlásokat – mint amilyen volt például a híres „Flash Crash” események során. Az AI kereskedési botok nem érzik át emberi érzelmeket vagy piaci összefüggéseket; ez kiszámíthatatlan reakciókat válthat ki befektetők körében.
11. Gazdasági és politikai instabilitás
Túlzott fókuszba kerülhet egyetlen technológia (például az MI), ami elvonhatja a figyelmet más fontos iparágaktól vagy innovációktól. Ez hosszú távon káros lehet mind gazdasági mind politikai szempontból.
12. Emberi befolyás csökkenése
Túlzott függőség esetén csökkenhet emberi kreativitásunk és empátiánk – például ha egészségügyi döntéseket kizárólag gépek hoznak meg helyettünk.
Különösen aggasztó lehet ez gyermekek esetében: ha túl sok időt töltenek AI-val való interakcióval, romolhatnak társas készségeik és kritikus gondolkodásuk.
13. Növekvő bűnözés és gyermekbiztonsági kockázatok
Egyre több bűncselekmény köthető AI-hoz: hangklónozás révén telefonos csalások szaporodnak; gyermekekről generált képek pedig megnehezítik valódi visszaélések felismerését.
Egyes chatbotok ráadásul engedélyeztek romantikus beszélgetést gyerekekkel – ami komoly etikai kérdéseket vet fel.
14. Mentális egészség romlása
A folyamatos online jelenlétet erősítő generatív AI tartalmak túlterhelhetik elménket és torzíthatják valóságérzékelésünket („agyrothadás”). Emellett nőhet az emberek függősége az AI-tól mint döntéstámogató eszköztől – ami hosszú távon csökkentheti kreativitásukat és kritikai gondolkodásukat.
15. Kontrollálhatatlan öntudatra ébredt MI
Bár még nincs bizonyíték arra, hogy létezik öntudatra ébredt MI (sentient AI), többen attól tartanak, hogy ha egyszer létrejön ilyen rendszer, akkor már nem lesz irányítható – akár rosszindulatúan cselekedhet majd.
Hogyan kezeljük ezeket a kockázatokat?
Szervezeti szinten:
- Megfelelő szabványok kialakítása: Cégek alakítsanak ki világos irányelveket arra vonatkozóan, hogyan használják és ellenőrzik az AI-t!
- Megfelelő adatkezelés: Fontos minőségi adatokat használni és átláthatóvá tenni az algoritmus működését!
- Kulturális beépítés: Tegyék mindennapi részévé az MI-vel kapcsolatos etikai vitákat!
Társadalmi szinten:
A Stanford kutatói szerint elengedhetetlen lenne bevonni minél többféle nézőpontot (gazdaság-, jog-, pszichológia-, filozófiai szakértőkét) abba, hogyan fejlesztjük tovább ezt a technológiát.
„A technológiai innovációt össze kell hangolni az emberközpontú gondolkodással” – mondják Fei-Fei Li és John Etchemendy kutatók.
Ez segíthet abban is, hogy ne csak félelmek legyenek körülötte hanem reményteljes jövőkép is kialakuljon.
Kormányzati lépések:
Míg Amerikában változó politikai helyzet miatt nehézkesebb előrelépni ebben a témában (például Trump adminisztráció visszavonta korábbi rendeleteket), addig Európában komolyabb szabályozások születtek.
Az EU például márciusban elfogadta az úgynevezett „AI Act”-et,a mesterséges intelligencia alkalmazási kockázatait kategorizáló keretrendszert, amely tilt bizonyos alkalmazásokat (pl.: valós idejű arcfelismerést közterületen) és szigorúan szabályozza például egészségügyi vagy rendészeti felhasználását.
Zárszóként
Sokan félnek attól, hogy egyszer majd elveszíthetjük kontrollt saját teremtményünk felett – de közben ne feledjük: maga az MI rengeteg pozitív változás kulcsa lehet! Egészségügytől kezdve önvezető autókig számos területen segíthet minket hatékonyabbá tenni.
Ahogy Martin Ford mondta: „Beszéljünk nyíltan ezekről a kockázatokról! De ne felejtsük el azt sem: az MI lesz talán legfontosabb eszközünk ahhoz, hogy megoldjuk korunk legnagyobb kihívásait.”
A kérdés tehát nem csak annyi: milyen veszélyei vannak? Hanem inkább: hogyan tudjuk úgy alakítani ezt a jövőt, hogy ne csak túléljük hanem virágozzunk vele együtt?
Forrás: https://builtin.com/artificial-intelligence/risks-of-artificial-intelligence






