Prince Harry csatlakozott egy sokszínű, befolyásos csoporthoz, amelyben evangélikus keresztény vezetők, híres színészek, zenészek és konzervatív kommentátorok is részt vesznek, hogy közösen kérjék az AI szuperintelligencia fejlesztésének betiltását. A kezdeményezést a Future of Life Institute (FLI), egy mesterséges intelligencia biztonságával foglalkozó nonprofit szervezet szervezte, amelyet korábban Elon Musk is támogatott.
A felhívás háttere és célja
A nyilatkozatot aláírók között megtalálhatók vezető számítástechnikai szakemberek is, akik aggodalmukat fejezik ki az olyan technológiai óriások – mint a Google, Meta vagy OpenAI – által fejlesztett fejlett mesterséges intelligenciarendszerek miatt. Ezek a rendszerek komoly fenyegetést jelenthetnek az emberiség jövőjére nézve.
A dokumentum két alapvető feltétel teljesüléséhez köti a szuperintelligencia fejlesztésének folytatását:
- Széles körű tudományos konszenzus arról, hogy a fejlesztés biztonságosan és kontrollált módon történik.
- Erős társadalmi támogatottság, vagyis a nyilvánosság széles körű beleegyezése.
Kiemelkedő aláírók és véleményük
A legfrissebb nyilatkozatot olyan ismert személyiségek írták alá, mint Donald Trump korábbi politikai stratégiája, Steve Bannon; a zenészek Will.I.am és Kate Bush; a színész Stephen Fry; valamint a brit milliárdos Sir Richard Branson.
A Future of Life Institute hangsúlyozza: „Számos vezető AI vállalat célja, hogy a következő évtizedben olyan szuperintelligenciát hozzon létre, amely minden kognitív feladatban jelentősen felülmúlja az emberi képességeket.” Ez számos aggodalmat vet fel:
- Az emberi munkaerő gazdasági elavulása és kiszolgáltatottsága
- A szabadságjogok, méltóság és kontroll elvesztése
- Nemzetbiztonsági kockázatok
- Az emberiség esetleges kihalása
Prince Harry személyes üzenete
Prince Harry így fogalmazott: „Az AI jövőjének az emberiséget kell szolgálnia, nem pedig helyettesítenie. Az igazi fejlődés próbája nem az lesz, milyen gyorsan haladunk előre, hanem hogy milyen bölcsen irányítjuk azt.” Ez a gondolat jól tükrözi a kezdeményezés lényegét: nem pusztán technológiai előrelépést akarunk, hanem felelősségteljes fejlődést.
A korábbi kezdeményezések és jelenlegi helyzet
Nem ez az első alkalom, hogy közismert személyek próbálják megállítani vagy legalábbis szabályozni az új mesterséges intelligencia fejlesztését. 2023 márciusában Elon Musk és Steve Wozniak is aláírtak egy nyílt levelet – szintén a Future of Life Institute szervezésében –, amely figyelmeztetett az „ellenőrizhetetlen” AI rendszerek veszélyeire.
Ugyanebben a hónapban Elon Musk megalapította saját mesterséges intelligencia vállalatát, az xAI-t, amelynek célja versenyezni az OpenAI-val az emberi szintű AI fejlesztésében.
2023 májusában pedig a Centre for AI Safety adott ki egy újabb nyilatkozatot, amelyben sürgette a szabályozók és törvényhozók komolyabb figyelmét az AI okozta „súlyos kockázatokra”. Ebben a dokumentumban többek között Google DeepMind és OpenAI vezetői – Demis Hassabis és Sam Altman – is aláírták azt. A közlemény hangsúlyozta:
„Az AI okozta kihalási kockázat mérséklése globális prioritás kell legyen más társadalmi méretű veszélyekkel – mint például a világjárványok vagy a nukleáris háború – egyenrangúan.”
A társadalmi párbeszéd fontossága
Bár eddig nem történt meg az AI fejlesztések leállítása vagy felfüggesztése, a legutóbbi nyilatkozat aláíróinak széles köre azt célozza meg, hogy túllépjenek az AI kutatói közösség határain. Max Tegmark, a Future of Life Institute elnöke és MIT professzor szerint:
„Korábban ez leginkább ‘nerdek harca volt nerd ellen’. Úgy érzem, most azt látjuk igazán, hogy ez a kritika nagyon mainstreammé vált.”
Ez azt jelzi, hogy az AI fejlesztések etikai és biztonsági kérdései egyre inkább bekerülnek a szélesebb társadalmi diskurzusba is – ami elengedhetetlen ahhoz, hogy valóban felelősségteljes döntések szülessenek ebben a kritikus témában.
Összegzés
A mesterséges intelligencia fejlődése hatalmas lehetőségeket rejt magában, ugyanakkor komoly veszélyeket is hordoz. Prince Harry és számos más ismert személyiség felhívása arra irányul, hogy ne engedjük meg az ellenőrizetlen szuperintelligencia kialakulását addig, amíg nem áll rendelkezésre megfelelő tudományos konszenzus és társadalmi támogatás. Ez egy fontos lépés lehet abba az irányba, hogy az AI valóban szolgálja az emberiséget anélkül, hogy veszélyeztetné annak jövőjét.
Forrás: https://www.independent.co.uk/tech/prince-harry-ai-ban-superintelligence-b2849866.html