Ha ezt olvasod, valószínűleg már van véleményed az általános mesterséges intelligenciáról (AGI), a szuperintelligenciáról és az AI jövőjéről. Talán úgy érzed, hogy egy forradalmi áttörés küszöbén állunk, vagy épp szkeptikus vagy, hogy ez valaha is megtörténik. Engedd meg, hogy egy kicsit más szemszögből közelítsem meg ezt a témát – egy olyan nézőpontból, ami gyakran hiányzik a mai diskurzusból: az informatika fizikai valóságából.
A számítás fizikai valósága – amit sokan elfelejtenek
Az egyik legnagyobb probléma, amit látok, hogy sokan – különösen a Bay Area techközpontjában – az AGI-ról, szuperintelligenciáról vagy hardverfejlesztésekről úgy beszélnek, mintha ezek csupán absztrakt filozófiai gondolatkísérletek lennének. Pedig a számítás nem csak egy elméleti fogalom: a számítás fizikai folyamat. Ez azt jelenti, hogy minden algoritmus, minden mesterséges intelligencia mögött konkrét hardver áll, amelynek fizikai korlátai vannak.
Vegyük például a processzorok gyorsítótárát (cache). Az L1, L2 és L3 cache ugyanazt a technológiát használja fizikailag, de működésükben óriási különbségek vannak. Az L2 és L3 cache nagyobbak ugyan, de jóval lassabbak is, mert fizikailag messzebb helyezkednek el a számítási magoktól. Ez az egyszerű tény jól mutatja: minél nagyobb egy memóriaegység, annál lassabb lesz hozzáférni.
Ezen túlmenően ahogy a tranzisztorok mérete csökken, maga a számítás olcsóbbá válik, de a memóriahozzáférés relatív költsége nő. Ma már egy chip területének jelentős részét memória foglalja el – nem véletlenül: ha például 10 exaflopos teljesítményt akarsz előállítani egy chipen, azt könnyedén megteheted, de ha nincs elég memória hozzáférésed, akkor ezek a műveletek értéktelenek maradnak.
Miért fontos ez nekünk?
Mert az AI architektúrák – például a transformer modellek – nem csak elméleti konstrukciók. Ezek fizikailag optimalizált rendszerek az információ feldolgozására. A transformer azért hatékony, mert egyszerre képes helyi összefüggéseket számolni (MLP) és globális információkat összegyűjteni (attention). Ez az egyik legjobb kompromisszum jelenleg.
Az emberi agy sem tudja átlépni a fizikai korlátokat
Nem csak az AI rendszerek vannak fizikai korlátok közé szorítva. Gondolj csak az emberi agyra! Az állatok intelligenciája erősen kötött ahhoz, mennyi kalóriát tudnak elfogyasztani élőhelyükön. Az emberi evolúció egyik nagy újítása volt a főzés feltalálása, ami jelentősen megnövelte az elfogyasztható kalóriák mennyiségét.
De még így is van határ: amikor egy nő várandós, két agyat kell táplálnia egyszerre. Ha az emberi agy még nagyobb lenne, egyszerűen nem tudnánk elegendő energiát biztosítani mindkettőnek. Ez azt jelenti, hogy jelenlegi intelligenciaszintünk egy fizikai határ – nem tudjuk tovább növelni energiaigény nélkül.
Lineáris fejlődéshez exponenciális erőforrások kellenek
Egy másik kulcsfontosságú felismerés: ha lineárisan akarunk fejlődni valamiben – legyen szó pontosságról vagy hatékonyságról –, akkor exponenciálisan növekvő erőforrásokra lesz szükségünk. Ez nem csak az AI-ra igaz, hanem gyakorlatilag minden tudományterületre.
A fizikai világban ez azért van így, mert az anyag elfoglal helyet és időt vesz igénybe; így egyre nehezebb és drágább összpontosítani az erőforrásokat. Az ötlettérben pedig hasonló jelenség figyelhető meg: ha két ötlet nagyon hasonló vagy egymásra épül, akkor csak kis mértékben tudnak új eredményt hozni – vagyis csökkennek a hozadékok.
A fizika példája
Egy elismert elméleti fizikus mesélte nekem: ma már szinte minden új elmélet inkrementális finomítás vagy „kitalált probléma”. A valódi áttörések ritkák és nehezen érhetők el. A kísérleti fizika pedig egyre drágább lesz: milliárdokat költünk olyan kísérletekre (például Nagy Hadronütköztető), amelyek csak részleges válaszokat adnak olyan rejtélyekre mint a sötét anyag vagy sötét energia.
A GPU-k fejlődése megtorpant
Sokan azt hiszik még mindig, hogy a hardver folyamatosan fejlődik majd és ez húzza előre az AI-t is. Nos, ez sajnos nincs így. A GPU-k teljesítményének növekedése 2018 körül tetőzött teljesítmény/költség arányban.
Azóta inkább apró „egyedi” fejlesztések jöttek: 16-bites pontosság, Tensor Core-ok bevezetése, nagy sávszélességű memória (HBM), majd 8- és 4-bites pontosságú számítások. Ezek mind jó ötletek voltak, de mindegyik hamar eléri saját határait.
Minden további fejlesztés kompromisszumokat hoz: jobb memóriakezelés alacsonyabb számítási hatékonyság mellett vagy fordítva. Egyszerűen fogalmazva: már nem várhatunk jelentős ugrást GPU-k terén.
Miért nem elég csak skálázni?
A Twitteren is írtam erről: lehetnek még kisebb előrelépések (például Gemini modell), de ezek messze nem olyan látványosak mint korábban. Korábban lineáris fejlesztésekhez lineáris költségek társultak GPU-oldalon; most viszont exponenciális költségekkel kell számolnunk.
Ez azt jelenti, hogy talán már csak egy-két évünk van arra, hogy skálázással javítsunk AI-t – utána fizikailag lehetetlen lesz tovább menni ezen az úton.
Kisebb szereplők előretörése
Közben olyan cégek mint MoonshotAI vagy Z.ai bizonyítják: nem kell gigászi infrastruktúra ahhoz sem, hogy élvonalbeli modelleket hozzanak létre. Ha képesek innoválni skálázáson túl is (például jobb szoftveres megoldásokkal), akár ők is átvehetik a vezetést.
Kína vs USA: két eltérő AI-stratégia
A világ két legnagyobb gazdasága nagyon eltérően gondolkodik az AI-ról:
- USA: Egyetlen győztesben hisznek – aki először épít ki szuperintelligenciát vagy legjobb modellt, az uralja majd a piacot.
- Kína: Inkább arra fókuszálnak, hogy minél szélesebb körben használják az AI-t különböző alkalmazásokban; nem feltétlenül kell mindig a legjobb modell.
Szerintem Kína pragmatikusabb megközelítést választott: inkább „elég jó” megoldásokkal maximalizálják a termelékenységet és integrálják széles körben az AI-t mindennapi életbe – akár egy 80 éves nagymama is használhatja könnyedén.
Az AGI soha nem fog megvalósulni – és a szuperintelligencia csak mese
Egy gyakori minta Bay Area-ban: amikor megkérdezed mikor jön el az AGI, mindig pár éven belülire teszik és óriási hatást jósolnak neki. De ha rákérdezel mit is jelent pontosan az AGI definíciójuk szerint? Nem veszik figyelembe sem a fizikai feladatokat sem az erőforrásokat.
Igazi AGI-nak képesnek kellene lennie komplex fizikai munkákra is – például robotok formájában –, amelyek gazdaságilag relevánsak. De ma már léteznek ipari robotok és teljesen automatizált gyárak Kínában („dark factories”), amelyek sokkal hatékonyabbak bármilyen általános robotnál.
A robotika problémái hasonló skálázási törvényeket követnek mint a nyelvi modelleké: adatgyűjtés drága és bonyolult. Emiatt robotika terén várható hatások korlátozottak lesznek.
A szuperintelligencia mítosza
A szuperintelligencia elképzelése abból indul ki, hogy ha egyszer lesz olyan intelligencia mint vagy jobb mint az emberi agy (AGI), akkor ez önmagát képes lesz végtelenül fejleszteni – futótűzként terjedve.
Sajnos ez tévedés: ez az elképzelés absztrakt módon kezeli az intelligenciát és figyelmen kívül hagyja a fizikai valóságot és erőforráskorlátokat. Minden fejlesztéshez erőforrás kell; még ha egy szuperintelligens rendszer hatékonyabban használja is ezeket, akkor is igaz rá a „lineáris fejlődéshez exponenciális erőforrás” szabálya.
Továbbá azok akik hisznek abban hogy GPU-k végtelenül fejlődnek majd gyorsabban ezzel együtt fejlődhetne maga a szuperintelligencia is – nem veszik észre hogy GPU-k már nem tudnak jelentős ugrást produkálni.
Záró gondolatok – merre tartunk?
Az AGI soha nem fog megvalósulni úgy ahogy azt ma elképzeljük; mert figyelmen kívül hagyja a számítás fizikai korlátait és exponenciális költségeit. A szuperintelligencia pedig inkább mesevilágba illik; mert azt feltételezi hogy önmagát végtelenül fejleszteni képes intelligencia létezik anélkül hogy korlátokba ütközne.
A valódi jövőt azok fogják alakítani akik képesek gazdasági diffúzióra fókuszálni: gyakorlati alkalmazásokra építenek és apró lépésekben javítanak rendszereket úgy, hogy azok ténylegesen növeljék emberi termelékenységet és jólétet.
Szerintem ideje lenne levetkőzni ezt a Bay Area-beli eko-kamrát ahol hit alapú narratívák uralkodnak kritikus gondolkodás helyett. Ha ezt megtesszük végre tényleg előrébb léphetnénk!
Forrás: https://timdettmers.com/2025/12/10/why-agi-will-not-happen/





