Steve Wozniak, az Apple társalapítója, valamint több mint 850 neves technológiai és mesterséges intelligencia (MI) szakértő közösen hívta fel a figyelmet a szuperintelligencia fejlesztésének veszélyeire, és sürgetik annak azonnali felfüggesztését. A szuperintelligencia olyan MI-forma, amely minden kognitív feladatban meghaladná az emberi képességeket, és ennek megjelenése komoly aggodalmakat vet fel a társadalom, a gazdaság és a nemzetbiztonság területén.
A szuperintelligencia fejlesztésének leállítását kérő nyilatkozat
A nyilatkozatot, amelyet szerdán tettek közzé, több mint 850 aláíró támogatta, köztük olyan ismert technológiai vezetők, mint Richard Branson, a Virgin Group alapítója, valamint Steve Wozniak. A dokumentumot olyan mesterséges intelligencia úttörők is aláírták, mint Yoshua Bengio és Geoff Hinton, akik a modern MI „keresztapáiként” ismertek. Emellett Stuart Russell, az UC Berkeley vezető MI-kutatója is csatlakozott a kezdeményezéshez.
A nyilatkozat hangsúlyozza, hogy a szuperintelligencia megjelenése számos komoly problémát vet fel:
- Gazdasági elavulás és kiszolgáltatottság: Az emberek munkahelyeinek elvesztése és gazdasági marginalizálódása.
- Szabadságjogok és méltóság csorbulása: Az egyéni szabadságok korlátozása és az emberi méltóság veszélyeztetése.
- Nemzetbiztonsági kockázatok: Az államok közötti versengés fokozódása és potenciális konfliktusok.
- Az emberiség fennmaradásának veszélye: A technológia kontrollálhatatlansága akár az emberi faj kihalásához is vezethet.
Közös fellépés egy biztonságosabb MI-jövőért
A nyilatkozat egyértelműen felszólít arra, hogy tiltsák be a szuperintelligencia fejlesztését mindaddig, amíg nem alakul ki széles körű társadalmi támogatás és tudományos konszenzus arról, hogy az ilyen rendszerek biztonságosan megépíthetők és irányíthatók.
A kezdeményezést nemcsak MI-szakértők és technológiai vezetők támogatják, hanem egy szélesebb koalíció is áll mögötte. Ebben akadémikusok, média személyiségek, vallási vezetők, valamint kétpárti amerikai politikusok és volt tisztségviselők is részt vesznek. Például Mike Mullen volt vezérkari főnök és Susan Rice volt nemzetbiztonsági tanácsadó is aláírta a dokumentumot.
Érdekességként megemlíthető, hogy Steve Bannon és Glenn Beck – akik Donald Trump amerikai elnök befolyásos médiatámogatói – szintén szerepelnek az aláírók között. A brit királyi családból Harry herceg és Meghan sussexi hercegné, valamint Mary Robinson volt ír elnök is támogatja az ügyet. A lista folyamatosan bővül.
Két tábor: AI-optimisták vs. AI-aggodalmaskodók
A technológiai közösségen belül egyre élesebb ellentét bontakozik ki azok között, akik az MI-t hatalmas lehetőségként látják korlátozás nélküli fejlesztéssel, illetve azok között, akik veszélyesnek tartják azt és erősebb szabályozást sürgetnek.
Még az olyan vezető MI-vállalatok irányítói is – mint Elon Musk vagy Sam Altman – korábban figyelmeztettek a szuperintelligencia veszélyeire. Altman például 2015-ben blogbejegyzésében úgy fogalmazott: „A szuperemberi gépi intelligencia (SMI) fejlesztése valószínűleg az emberiség fennmaradásának legnagyobb fenyegetése.” Elon Musk pedig egy idei podcastban arról beszélt, hogy „csupán 20% esélyt lát az emberiség teljes megsemmisülésére” az MI fejlődése miatt.
Társadalmi támogatottság hiánya és szabályozási igények
A „Szuperintelligenciáról szóló nyilatkozat” hivatkozik egy friss felmérésre is, amelyet a Future of Life Institute végzett. Ez kimutatta, hogy az Egyesült Államokban csak 5% támogatja a gyors és szabályozatlan szuperintelligencia-fejlesztést. A megkérdezettek többsége úgy véli, hogy addig nem szabad létrehozni „szuperemberi MI-t”, amíg annak biztonságossága vagy irányíthatósága nem bizonyított. Emellett erős szabályozást szeretnének látni az előrehaladott MI-kapcsolatban.
Szakértői vélemények: A biztonságos fejlődés kulcsa
Yoshua Bengio, számítógéptudós és az egyik aláíró így fogalmazott: „Az MI-rendszerek néhány éven belül képesek lehetnek túlszárnyalni az embereket legtöbb kognitív feladatban. Bár ezek az előrelépések segíthetnek globális kihívások megoldásában, jelentős kockázatokat is hordoznak magukban.”
Bengio szerint ahhoz, hogy biztonságosan haladjunk előre a szuperintelligencia felé vezető úton, tudományosan kell meghatározni azt a módot, ahogyan olyan MI-rendszereket tervezünk, amelyek alapvetően képtelenek ártani embereknek – akár félreértésekből adódóan (misalignment), akár rosszindulatú használat miatt.
„Emellett biztosítani kell azt is, hogy a közvélemény sokkal erőteljesebben részt vehessen azokban a döntésekben, amelyek kollektív jövőnket alakítják.”
Összegzés
A mesterséges intelligencia fejlődése páratlan lehetőségeket kínál ugyan az emberiség számára, de egyben komoly veszélyeket is rejt magában. Steve Wozniak és több száz más szakértő összefogása rávilágít arra a sürgető szükségletre, hogy felelősségteljesen kezeljük ezt a technológiát. A szuperintelligencia fejlesztésének ideiglenes leállítása lehetőséget ad arra, hogy megfelelő szabályozási kereteket alakítsunk ki és biztosítsuk az emberiség biztonságos jövőjét.