Prince Harry és más vezető személyiségek az AI szuperintelligencia fejlesztésének betiltásáért

okt 22, 2025 | Tech

Prince Harry csatlakozott egy sokszínű, befolyásos csoporthoz, amelyben evangélikus keresztény vezetők, híres színészek, zenészek és konzervatív kommentátorok is részt vesznek, hogy közösen kérjék az AI szuperintelligencia fejlesztésének betiltását. A kezdeményezést a Future of Life Institute (FLI), egy mesterséges intelligencia biztonságával foglalkozó nonprofit szervezet szervezte, amelyet korábban Elon Musk is támogatott.

A felhívás háttere és célja

A nyilatkozatot aláírók között megtalálhatók vezető számítástechnikai szakemberek is, akik aggodalmukat fejezik ki az olyan technológiai óriások – mint a Google, Meta vagy OpenAI – által fejlesztett fejlett mesterséges intelligenciarendszerek miatt. Ezek a rendszerek komoly fenyegetést jelenthetnek az emberiség jövőjére nézve.

A dokumentum két alapvető feltétel teljesüléséhez köti a szuperintelligencia fejlesztésének folytatását:

  1. Széles körű tudományos konszenzus arról, hogy a fejlesztés biztonságosan és kontrollált módon történik.
  2. Erős társadalmi támogatottság, vagyis a nyilvánosság széles körű beleegyezése.

Kiemelkedő aláírók és véleményük

A legfrissebb nyilatkozatot olyan ismert személyiségek írták alá, mint Donald Trump korábbi politikai stratégiája, Steve Bannon; a zenészek Will.I.am és Kate Bush; a színész Stephen Fry; valamint a brit milliárdos Sir Richard Branson.

A Future of Life Institute hangsúlyozza: „Számos vezető AI vállalat célja, hogy a következő évtizedben olyan szuperintelligenciát hozzon létre, amely minden kognitív feladatban jelentősen felülmúlja az emberi képességeket.” Ez számos aggodalmat vet fel:

  • Az emberi munkaerő gazdasági elavulása és kiszolgáltatottsága
  • A szabadságjogok, méltóság és kontroll elvesztése
  • Nemzetbiztonsági kockázatok
  • Az emberiség esetleges kihalása

Prince Harry személyes üzenete

Prince Harry így fogalmazott: „Az AI jövőjének az emberiséget kell szolgálnia, nem pedig helyettesítenie. Az igazi fejlődés próbája nem az lesz, milyen gyorsan haladunk előre, hanem hogy milyen bölcsen irányítjuk azt.” Ez a gondolat jól tükrözi a kezdeményezés lényegét: nem pusztán technológiai előrelépést akarunk, hanem felelősségteljes fejlődést.

A korábbi kezdeményezések és jelenlegi helyzet

Nem ez az első alkalom, hogy közismert személyek próbálják megállítani vagy legalábbis szabályozni az új mesterséges intelligencia fejlesztését. 2023 márciusában Elon Musk és Steve Wozniak is aláírtak egy nyílt levelet – szintén a Future of Life Institute szervezésében –, amely figyelmeztetett az „ellenőrizhetetlen” AI rendszerek veszélyeire.

Ugyanebben a hónapban Elon Musk megalapította saját mesterséges intelligencia vállalatát, az xAI-t, amelynek célja versenyezni az OpenAI-val az emberi szintű AI fejlesztésében.

2023 májusában pedig a Centre for AI Safety adott ki egy újabb nyilatkozatot, amelyben sürgette a szabályozók és törvényhozók komolyabb figyelmét az AI okozta „súlyos kockázatokra”. Ebben a dokumentumban többek között Google DeepMind és OpenAI vezetői – Demis Hassabis és Sam Altman – is aláírták azt. A közlemény hangsúlyozta:

„Az AI okozta kihalási kockázat mérséklése globális prioritás kell legyen más társadalmi méretű veszélyekkel – mint például a világjárványok vagy a nukleáris háború – egyenrangúan.”

A társadalmi párbeszéd fontossága

Bár eddig nem történt meg az AI fejlesztések leállítása vagy felfüggesztése, a legutóbbi nyilatkozat aláíróinak széles köre azt célozza meg, hogy túllépjenek az AI kutatói közösség határain. Max Tegmark, a Future of Life Institute elnöke és MIT professzor szerint:

„Korábban ez leginkább ‘nerdek harca volt nerd ellen’. Úgy érzem, most azt látjuk igazán, hogy ez a kritika nagyon mainstreammé vált.”

Ez azt jelzi, hogy az AI fejlesztések etikai és biztonsági kérdései egyre inkább bekerülnek a szélesebb társadalmi diskurzusba is – ami elengedhetetlen ahhoz, hogy valóban felelősségteljes döntések szülessenek ebben a kritikus témában.

Összegzés

A mesterséges intelligencia fejlődése hatalmas lehetőségeket rejt magában, ugyanakkor komoly veszélyeket is hordoz. Prince Harry és számos más ismert személyiség felhívása arra irányul, hogy ne engedjük meg az ellenőrizetlen szuperintelligencia kialakulását addig, amíg nem áll rendelkezésre megfelelő tudományos konszenzus és társadalmi támogatás. Ez egy fontos lépés lehet abba az irányba, hogy az AI valóban szolgálja az emberiséget anélkül, hogy veszélyeztetné annak jövőjét.

Forrás: https://www.independent.co.uk/tech/prince-harry-ai-ban-superintelligence-b2849866.html

Enshittification: Miért romlanak el a platformok és mit tehetünk ellene?

Enshittification – ez a kifejezés írja le azt a jelenséget, amikor egy digitális platform vagy szolgáltatás kezdetben kiváló felhasználói élményt nyújt, majd idővel egyre rosszabbá válik, miközben a felhasználók mégsem hagyják el azt. Ez a folyamat nemcsak a közösségi...

Kriptopiaci előrejelző piacok visszatérése az USA-ba a Trump család szerepvállalásával

Zach Hamilton, a kriptovaluta startup, a Sarcophagus alapítója egy WIRED-nek adott interjúban így fogalmazott: „Ha egyetlen okot kellene megnevezni, amiért a kriptopiaci előrejelző piacok visszatérhetnek az Egyesült Államokba, akkor az a Trump-adminisztráció.” Majd...

PFAS vegyi anyagok hatásainak vizsgálata egérmodellben – részletes kutatási összefoglaló

A per- és polifluoralkil-szubsztanciák (PFAS) környezeti és egészségügyi hatásai egyre nagyobb figyelmet kapnak a tudományos közösségben. Jelen cikkünkben egy átfogó kutatási projekt részleteit ismertetjük, amelyben PFAS-koktél expozíciót alkalmaztak Swiss CD1...

Strauss Zelnick véleménye az AI játékiparra gyakorolt hatásáról – Take-Two Interactive vezetője

Strauss Zelnick, a videojáték-kiadó Take-Two Interactive vezérigazgatója nem tartja magát az mesterséges intelligencia (AI) ígéreteinek kételkedőjének, ugyanakkor óvatosan nyilatkozott az AI jelenlegi hatásairól a játékfejlesztés és -gyártás területén. A „Grand Theft...

Direct Primary Care: Az új egészségügyi modell, ami forradalmasítja a betegellátást

Bangor, Maine városában Geoff Clarke egy olyan élményről számolt be legutóbbi egészségügyi vizsgálatával kapcsolatban, amely sok amerikai számára szinte elképzelhetetlen: magas szintű elégedettségről és dicséretől. "Ha álmodban csinálnád, pontosan olyan lenne, mint az...

Lindsey Graham kínos Siri-incidense és a kormányzati leállás helyzete az Egyesült Államokban

Lindsey Graham, Dél-Karolina republikánus szenátora, egy váratlan technikai baki miatt került a figyelem középpontjába az Egyesült Államok Capitoliumában. A jelenleg közel egy hónapja tartó kormányzati leállás közepette, amikor a kongresszus tagjai egyre...

LinkedIn adatgyűjtési változások: hogyan védd meg profilodat az AI képzésétől?

LinkedIn nemrégiben bejelentette, hogy 2025. november 3-tól jelentős változtatásokat vezet be adatfelhasználási szabályaiban, amelyek érintik az Európai Unió, az EGT, Svájc, Kanada és Hongkong felhasználóit is. Ha eddig azt gondoltad, hogy ezekben a régiókban...

Ben Stiller véleménye a „nepo baby” kifejezésről és a sztárgyerekek valósága

Ben Stiller, a világhírű színész és rendező nemrégiben a „The Howard Stern Show” vendégeként osztotta meg gondolatait a „nepo baby” kifejezésről, amely azokra a hírességek gyermekeire utal, akik szüleik nyomdokaiba lépve válnak maguk is ismertté. A „nepo baby”...

Trump amerikai katonáknak ajánlja a japán Toyota autókat – Az autópiac és kereskedelmi kihívások Japán és USA között

Donald Trump, az Egyesült Államok korábbi elnöke, aki hosszú ideje az America First (Amerika az első) politikáját hirdeti, legutóbbi ázsiai útja során különös felhívást intézett az amerikai katonákhoz: vásároljanak japán gyártású Toyota autókat. Ez a felszólítás...

Sam Altman AI megjegyzései és a valódi munka fogalma a jövőben

Sam Altman, az OpenAI vezérigazgatója ismét nagy port kavart azzal, hogy az mesterséges intelligencia (AI) jövőbeli hatásairól beszélt, különösen a munka világára gyakorolt következményekről. Legutóbbi nyilatkozataiban olyan gondolatokat fogalmazott meg, amelyek...