Qualcomm bejelentette, hogy hamarosan új mesterséges intelligencia (AI) gyorsító chipeket dob piacra, amelyekkel közvetlen versenybe száll az eddig piacvezető Nvidia mellett. Ez a lépés jelentős fordulatot jelent a Qualcomm számára, amely eddig elsősorban vezeték nélküli kapcsolódást és mobil eszközöket kiszolgáló félvezetőkre fókuszált, nem pedig hatalmas adatközpontokra.
Új AI chipjeik: AI200 és AI250
A Qualcomm két új AI chipet mutat be: az AI200-at, amely 2026-ban kerül forgalomba, valamint az AI250-et, amely 2027-ben várható. Ezek a chipek olyan rendszerekben is elérhetők lesznek, amelyek egy teljes, folyadékhűtéses szerverállványt töltenek meg.
Ezzel a Qualcomm felveszi a versenyt az olyan nagy szereplőkkel, mint az Nvidia és az AMD, amelyek grafikus feldolgozó egységeiket (GPU-kat) teljes állványos rendszerekben kínálják. Ezek a rendszerek akár 72 chipet is képesek egyetlen számítógépként működtetni, ami elengedhetetlen a legfejlettebb AI modellek futtatásához.
A Qualcomm adatközponti chipeinek technológiai alapjai
A Qualcomm új adatközponti chipjei a vállalat okostelefonjaiban már használt Hexagon neurális feldolgozó egységeken (NPU-kon) alapulnak. Durga Malladi, a Qualcomm adatközponti és edge üzletágának vezetője elmondta, hogy először más területeken akarták bizonyítani képességeiket, majd ezt követően volt könnyű áttérniük az adatközponti szintre.
„Először más területeken akartunk bizonyítani, és miután ott megerősítettük magunkat, könnyű volt egy szinttel feljebb lépni az adatközpontok világába.” – Durga Malladi
Az AI gyorsító chipek piaci jelentősége és versenyhelyzet
A Qualcomm belépése az adatközponti piacra új versenyt teremt a technológia leggyorsabban növekvő szegmensében: az AI-központú szerverfarmok felszereléseiben. A McKinsey becslése szerint 2030-ig mintegy 6,7 billió dollárnyi beruházás irányul majd adatközpontokra, melyek túlnyomó többsége AI chip-alapú rendszereket fog használni.
Eddig az iparágat elsősorban az Nvidia uralta, amelynek GPU-i több mint 90%-os piaci részesedéssel rendelkeznek. Az Nvidia chipek szolgáltak például az OpenAI GPT modelljeinek betanításához is – ezek a nagy nyelvi modellek működtetik a ChatGPT-t.
Ugyanakkor egyre több cég keres alternatív megoldásokat. Az OpenAI például nemrég bejelentette, hogy tervezi GPU-chipek vásárlását a második helyezett AMD-től, sőt akár részesedést is szerezhet a vállalatban. Emellett olyan techóriások, mint a Google, Amazon és Microsoft is saját AI gyorsítókat fejlesztenek felhőszolgáltatásaik számára.
Fókuszban az inferencia – nem a tanítás
A Qualcomm chipjei elsősorban az inferencia, vagyis meglévő AI modellek futtatására koncentrálnak, nem pedig azok tanítására. Az inferencia során a modellek már betanított tudásukat alkalmazzák valós idejű feladatokra, míg a tanítás során hatalmas mennyiségű adatot dolgoznak fel új képességek létrehozásához.
A vállalat szerint rack-szintű rendszereik üzemeltetési költsége alacsonyabb lesz más megoldásokénál. Egy ilyen rack energiafogyasztása körülbelül 160 kilowatt – ez összevethető néhány Nvidia GPU-rendszer magas energiaigényével.
Rugalmasság és együttműködés lehetőségei
Malladi kiemelte, hogy a Qualcomm AI chipjeit és egyéb komponenseit külön-külön is értékesítik majd. Ez különösen fontos lehet olyan nagy ügyfelek számára, akik saját rack-rendszereiket szeretnék kialakítani. Érdekességként megjegyezte, hogy akár versenytársak – például Nvidia vagy AMD – is vásárolhatnak Qualcomm alkatrészeket, például központi feldolgozó egységet (CPU)-t.
„Arra törekedtünk, hogy ügyfeleink döntési szabadsága maximális legyen: választhatják akár az egész rendszert vagy keverhetik komponenseinket más gyártók termékeivel.” – Durga Malladi
További részletek és együttműködések
A Qualcomm nem árulta el pontosan a chipek árát vagy azt sem, hogy egyetlen rackbe hány NPU telepíthető. Májusban azonban bejelentette együttműködését Szaúd-Arábia Humain nevű vállalatával, amely regionális adatközpontokat lát el inferencia célú AI chipekkel. A Humain akár 200 megawatt teljesítményig képes lesz telepíteni ilyen rendszereket.
Technológiai előnyök és memória kezelése
A Qualcomm szerint új AI gyorsítóik előnyösek más gyártók megoldásaihoz képest energiafogyasztásban és tulajdonlási költségekben egyaránt. Emellett újszerű megközelítést alkalmaznak a memória kezelésében: AI kártyáik akár 768 gigabájt memóriát támogatnak, ami meghaladja az Nvidia és AMD hasonló termékeinek kapacitását.
Összegzés
A Qualcomm belépése az AI gyorsító chipek piacára jelentős változásokat hozhat az adatközpontok világában. Új termékeikkel nemcsak versenytársakat szólítanak meg, hanem rugalmas megoldásaikkal hozzájárulhatnak ahhoz is, hogy ügyfeleik személyre szabottan alakíthassák ki szerverparkjaikat. Az iparág jövője szempontjából izgalmas fejleményeket tartogat ez a lépés.
Forrás: https://www.cnbc.com/2025/10/27/qualcomm-ai200-ai250-ai-chips-nvidia-amd.html