A számítási teljesítmény robbanásszerűen nő, és átalakítja az AI-t.
A közelmúltban tartott Nvidia GTC konferencián a cég bemutatta, hogy az első olyan, egyetlen állványos szerverrendszer, amely másodpercenként egy exaflopra – egymilliárd milliárdra vagy egy kvintillónyi lebegőpontos műveletre (FLOPS) képes. Ez az áttörés a legújabb GB200 NVL72 rendszeren alapul, amely az Nvidia legújabb Blackwell grafikus feldolgozó egységeit (GPU) tartalmazza. A szabványos számítógépes állvány körülbelül 6 láb magas, valamivel több mint 3 láb mély és kevesebb, mint 2 láb széles.
Exaflop zsugorítása: Frontiertől Blackwellig
Meglepett néhány dolog a bejelentéssel kapcsolatban. Először is, a világ első exaflop-képes számítógépét csak néhány éve, 2022-ben telepítették az Oak Ridge National Laboratory-ban. Összehasonlításképpen: a HPE által épített, AMD GPU-kkal és CPU-kkal hajtott „Frontier” szuperszámítógép eredetileg 74 szerverállványból állt. Az új Nvidia rendszer nagyjából 73-szor nagyobb teljesítménysűrűséget ért el mindössze három év alatt, ami évente háromszoros teljesítménynek felel meg. Ez a fejlődés a számítási sűrűség, az energiahatékonyság és az építészeti tervezés terén elért figyelemreméltó előrelépést tükrözi.
Másodszor, el kell mondani, hogy bár mindkét rendszer elérte a mérföldkövet, más-más kihívásokra készült, az egyik a sebességre, a másik a pontosságra van optimalizálva. Az Nvidia exaflop specifikációja alacsonyabb pontosságú matematikán – különösen 4 bites és 8 bites lebegőpontos műveleteken – alapul, amelyeket optimálisnak tartanak az AI-terhelésekhez, beleértve a képzést és a nagy nyelvi modellek (LLM) futtatását. Ezek a számítások a sebességet részesítik előnyben a pontossággal szemben. Ezzel szemben a Frontier exaflop besorolását a 64 bites duplapontosságú matematikával érték el, amely a tudományos szimulációk aranystandardja, ahol a pontosság kritikus.
Hosszú utat tettünk meg (nagyon gyorsan)
Ez a haladás szinte hihetetlennek tűnik, különösen, ha visszaemlékszem a legmodernebb technikákra, amikor a számítástechnikai iparban kezdtem. Az első szakmai munkám a DEC KL 1090 programozója volt. Ez a gép, amely a DEC PDP-10 sorozatának időben megosztott nagyszámítógépei része, 1,8 millió utasítást kínált másodpercenként (MIPS). A CPU teljesítményén kívül a katódsugárcsőhöz (CRT) csatlakoztatott gép vezetékes kábeleken keresztül jelenít meg. Nem volt grafikus lehetőség, csak világos szöveg sötét háttéren. És persze nincs internet. A távoli felhasználók telefonvonalon keresztül csatlakoztak akár 1200 bit/s sebességgel működő modemekkel.

500 milliárdszor több számítás
Bár a MIPS és a FLOPS összehasonlítása általános képet ad a haladásról, fontos megjegyezni, hogy ezek a mutatók különböző számítási terheléseket mérnek. A MIPS az egész számok feldolgozási sebességét tükrözi, ami hasznos az általános célú számítástechnikában, különösen az üzleti alkalmazásokban. A FLOPS a lebegőpontos teljesítményt méri, amely kulcsfontosságú a tudományos munkaterheléshez és a modern mesterséges intelligencia mögött meghúzódó súlyos számozáshoz, mint például a gépi tanulási (ML) modellek betanításához és futtatásához használt mátrix matematika és lineáris algebra.
Bár nem közvetlen összehasonlítás, az akkori MIPS és a FLOPS közötti különbség puszta mértéke most jól mutatja a számítási teljesítmény gyors növekedését. Ezeket durva heurisztikaként használva az elvégzett munka mérésére, az új Nvidia rendszer körülbelül 500 milliárdszor erősebb, mint a DEC gép. Ez a fajta ugrás példázza a számítási teljesítmény exponenciális növekedését egyetlen szakmai karrier alatt, és felveti a kérdést: ha 40 év alatt lehetséges ekkora előrelépés, mit hozhat a következő 5?
Az Nvidia a maga részéről kínált néhány támpontot. A GTC-n a vállalat megosztott egy ütemtervet, amely szerint a következő generációs, „Vera Rubin” Ultra architektúrán alapuló full-rack rendszere a Blackwell Ultra rack szállítási teljesítményének 14-szeresét fogja nyújtani idén, és a következő egy-két évben 14-15 exaflopot ér el az AI-optimalizált munka során.
Ugyanilyen figyelemre méltó a hatékonyság. Az ilyen szintű teljesítmény elérése egyetlen rackben kevesebb fizikai helyet jelent munkaegységenként, kevesebb anyagot és potenciálisan alacsonyabb energiafelhasználást műveletenként, bár ezeknek a rendszereknek az abszolút teljesítményigénye továbbra is óriási.
Valóban szüksége van az AI-ra ennyi számítási teljesítményre?
Bár az ilyen teljesítménynövekedés valóban lenyűgöző, az AI-ipar most egy alapvető kérdéssel küzd: mekkora számítási teljesítményre van valóban szükség, és milyen áron? A hatalmas, új AI-adatközpontok építésére irányuló versenyt az exascale számítástechnika és az egyre jobban képes mesterségesintelligencia-modellek iránti növekvő igények vezérlik.
A legambiciózusabb erőfeszítés az 500 milliárd dolláros Stargate Project, amely 20 adatközpontot képzel el az Egyesült Államokban, egyenként félmillió négyzetméteren. Más hiperméretű projektek hulláma van folyamatban vagy tervezési szakaszban szerte a világon, miközben a vállalatok és országok azon igyekeznek, hogy biztosítsák a jövő mesterséges intelligenciájának támogatásához szükséges infrastruktúrát.
Egyes elemzők most attól tartanak, hogy esetleg túlépítjük az AI-adatközpont kapacitását. Az aggodalom fokozódott az R1 megjelenése után, a kínai DeepSeek okoskodási modellje, amely lényegesen kevesebb számítást igényel, mint sok társa. A Microsoft később felmondta több adatközpont-szolgáltatóval kötött bérleti szerződést, ami azt a találgatást váltotta ki, hogy esetleg újrakalibrálja várakozásait a jövőbeli mesterségesintelligencia-infrastruktúra-igényekre vonatkozóan.
A The Register azonban azt sugallta , hogy ennek a visszahúzásnak inkább köze lehet ahhoz, hogy egyes tervezett mesterséges intelligencia-adatközpontok nem rendelkeznek kellően robusztus képességgel a következő generációs AI-rendszerek energia- és hűtési igényeinek kielégítésére. Az AI-modellek már most feszegetik a jelenlegi infrastruktúra által támogatott határokat. Az MIT Technology Review arról számolt be , hogy ez lehet az oka annak, hogy Kínában sok adatközpont küszködik és kudarcot vallanak, mivel olyan specifikációk szerint épültek, amelyek nem felelnek meg a jelenlegi igényeknek, nem is beszélve a következő néhány év követelményeiről.
Az AI következtetéshez több FLOP szükséges
Az érvelési modellek munkájuk nagy részét futási időben hajtják végre egy következtetésként ismert folyamaton keresztül. Ezek a modellek a mai legfejlettebb és legerőforrásigényesebb alkalmazásokat hajtják végre, beleértve a mélyreható kutatási asszisztenseket és az ügynöki mesterséges intelligencia rendszerek feltörekvő hullámát.
Míg a DeepSeek-R1 kezdetben arra rémítette az iparágat, hogy a jövőbeli mesterséges intelligencia kevesebb számítási teljesítményt igényel , az Nvidia vezérigazgatója, Jensen Huang keményen visszavetette magát. A CNBC-nek nyilatkozva ellenezte ezt a felfogást: „Ez pontosan az ellenkező következtetés volt, mint mindenkinél.” Hozzátette, hogy az érvelő mesterséges intelligencia 100-szor több számítási munkát igényel, mint a nem okoskodó MI.
Ahogy a mesterséges intelligencia az érvelési modellektől az autonóm ágensekké és tovább fejlődik, a számítástechnika iránti kereslet valószínűleg ismét megnő. A következő áttörés nemcsak a nyelvben vagy a látásmódban jöhet létre, hanem a mesterséges intelligencia-ügynökök koordinációjában, a fúziós szimulációkban vagy akár a nagyszabású digitális ikrekben is, amelyek mindegyikét a számítási képességek terén tapasztalt ugrás tette lehetővé.
Úgy tűnik, az OpenAI éppen most jelentett be 40 milliárd dolláros új finanszírozást , ami az eddigi legnagyobb magántechnológiai finanszírozási kör. A cég egy blogbejegyzésében azt írta , hogy a finanszírozás „lehetővé teszi számunkra, hogy még jobban kitágítsuk az AI-kutatás határait, bővítsük számítási infrastruktúránkat, és egyre hatékonyabb eszközöket biztosítsunk a ChatGPT-t hetente használó 500 millió ember számára”.
Miért áramlik annyi tőke az AI-ba? Az okok a versenyképességtől a nemzetbiztonságig terjednek. Bár egy bizonyos tényező kiemelkedik, amint azt a McKinsey főcíme is példázza : „A mesterséges intelligencia évi 4,4 billió dollárral növelheti a vállalati nyereséget.”
Mi jön ezután? Ez bárkinek a tippje
Lényegében az információs rendszerek a komplexitás elvonatkoztatásáról szólnak, akár egy sürgősségi jármű-útválasztó rendszeren keresztül, amelyet egykor a Fortran-ban írtam, egy COBOL-ba épített tanulói teljesítményjelentési eszközről, vagy a gyógyszerkutatást felgyorsító modern AI-rendszerekről. A cél mindig ugyanaz volt: a világ jobb megértése.
Most, amikor az erőteljes mesterséges intelligencia kezd megjelenni, átlépünk egy küszöböt. Ez az első alkalom, hogy rendelkezünk azzal a számítási teljesítménnyel és intelligenciával, hogy megbirkózzunk olyan problémákkal, amelyek egykor emberi hatókörön kívül voltak.
A New York Times rovatvezetője, Kevin Roose a közelmúltban jól megörökítette ezt a pillanatot : „Minden héten találkozom MI-n dolgozó mérnökökkel és vállalkozókkal, akik azt mondják, hogy a változás – nagy változás, világrengető változás, olyan fajta átalakulás, amilyet még soha nem tapasztaltunk – a sarkon van.” És ez nem számít bele a hetente érkező áttörésekbe.
Az elmúlt néhány napban láthattuk, hogy az OpenAI GPT-4o szinte tökéletes képeket generál szövegből, a Google pedig kiadta a Gemini 2.5 Pro legfejlettebb gondolkodási modelljét , a Runway pedig bemutatott egy videomodellt lövéstől-lövésig karakter- és jelenet-konzisztenciával, amit a VentureBeat megjegyzi , hogy ez a legtöbb mesterséges intelligencia-videógenerátort eddig elkerülte.
Ami ezután jön, az valóban találgatás. Nem tudjuk, hogy az erőteljes mesterséges intelligencia áttörést vagy összeomlást jelent-e, segít-e megoldani a fúziós energiát, vagy új biológiai kockázatokat szabadít fel. De mivel az elkövetkező öt évben egyre több FLOPS jelenik meg az interneten, egy dolog biztosnak tűnik: az innováció gyorsan – és erővel – jön. Az is világos, hogy a FLOPS mértékével a felelősségről, szabályozásról és visszafogottságról szóló beszélgetéseinknek is kell lenniük.