KezdőlapHírekAz Nvidia bemutatta azt a technológiát, amely a világ legértékesebb vállalatává emelte

Az Nvidia bemutatta azt a technológiát, amely a világ legértékesebb vállalatává emelte

-

Iratkozz fel hírlevelünkre, vagy kövess minket a Viberen, a Telegramon, Whatsappon és a Google Hírek-en!

A Nvidia újabb részleteket osztott meg arról az adatközponti számítástechnikai platformról, amely kulcsszerepet játszott abban, hogy a vállalat a mesterséges intelligencia korszakának egyik legmeghatározóbb szereplőjévé váljon. A Vera Rubin névre keresztelt rendszer nem csupán egy újabb technológiai fejlesztés: bevezetése az egész AI-iparág jövőjére komoly hatással lehet – írja a CNN.

A vállalat korábban már utalt a Vera Rubin érkezésére, ám a valódi részletek a Las Vegasban megrendezett CES konferencián váltak ismertté. Itt az Nvidia vezetői nemcsak a rendszer működését mutatták be, hanem annak ütemezett bevezetését is. A platform már gyártás alatt áll, az első Vera Rubin-alapú termékek pedig a tervek szerint 2026 második felében jelennek meg a piacon.

Az Nvidia az elmúlt években a mesterséges intelligencia robbanásszerű terjedésének szimbólumává vált. Chipjeinek és szoftverplatformjainak elterjedtsége tavaly rövid időre odáig repítette a céget, hogy elsőként érje el az 5 billió dolláros piaci értéket. A sikert azonban egyre hangosabb kérdések kísérik: vajon fenntartható-e ez az ütem, vagy egy mesterséges intelligencia buborék küszöbén áll az iparág?

A kérdésre maga Jensen Huang, az Nvidia vezérigazgatója próbált választ adni a CES nyitóelőadásán, amelyet szokásos fekete bőrdzsekijében tartott meg a Fontainebleau Las Vegas színházában.

„Az emberek azt kérdezik, honnan jön a pénz. Hát onnan jön a pénz” – mondta, utalva arra, hogy a vállalatok egyre nagyobb arányban csoportosítják át költségvetésüket a hagyományos számítástechnikai kutatásokról a mesterséges intelligenciára.

A Vera Rubin platformmal az Nvidia éppen ezekre az egyre növekvő igényekre kínál választ. A fejlett AI-modellek ugyanis már nemcsak számítási teljesítményt igényelnek, hanem teljesen új adatkezelési és tárolási megközelítést is.



A vállalat szerint a Vera Rubin NVL72 nevű jövőbeli AI-szerverállványa „több sávszélességet kínál, mint az egész internet”. Emellett egy új típusú tárolórendszer is része a platformnak, amelyet kifejezetten a komplex, kontextusban gazdag AI-kérések gyors feldolgozására terveztek.

A csevegőrobotoktól az intelligens asszisztensekig

A hagyományos adatközponti infrastruktúra már nem tud lépést tartani azzal az iránnyal, amerre az AI fejlődik. Olyan szereplők, mint a Google, az OpenAI vagy az Anthropic egyre összetettebb mesterséges intelligencia asszisztenseket fejlesztenek, amelyek messze túllépnek az egyszerű chatbotok világán.

Huang egy látványos videóval szemléltette ezt az átmenetet: egy felhasználó személyes asszisztenst hozott létre egy kis irodai robot és több, az Nvidia DGX Spark számítógépen futó AI-modell összekapcsolásával. A robot nemcsak teendőlistát kezelt, hanem még a kutyát is „rendre utasította”, hogy szálljon le a kanapéról.

„A szűk keresztmetszet a számítási teljesítményről a kontextuskezelésre helyeződik át” – fogalmazott Dion Harris, az Nvidia nagy teljesítményű számítástechnikai és hyperscale AI megoldásokért felelős vezető igazgatója. „A tárolás már nem lehet utólagos gondolat.”

Kik állnak a Vera Rubin mögött?

A CES előtt az Nvidia bejelentette, hogy licencszerződést kötött a Groq vállalattal, amely a mesterséges intelligencia következtetésére specializálódott. Ez is jelzi, hogy az Nvidia hosszú távon gondolkodik az AI-rendszerek „gondolkodási” képességeinek fejlesztésében.

„A következtetés már nem egyszeri válasz, hanem gondolkodási folyamat” – hangsúlyozta Huang.

A vállalat szerint a Vera Rubint elsőként a legnagyobb felhőszolgáltatók vezetik be, köztük a Microsoft, az Amazon Web Services, a Google Cloud és a CoreWeave. Az új chipeket várhatóan olyan hardvergyártók integrálják, mint a Dell és a Cisco, míg az AI-laborok – például az OpenAI, az Anthropic, a Meta és az xAI – a modellek tanítására és finomhangolására használhatják majd.

Az Nvidia az Alpamayo nevű új modellekkel az autonóm járművek és az úgynevezett „fizikai AI” – vagyis a valós világban működő robotrendszerek – területén is erősíti jelenlétét. A dominancia azonban komoly elvárásokkal jár: a vállalatnak folyamatosan bizonyítania kell, hogy az AI-infrastruktúrába ömlő hatalmas tőkebefektetések valódi kereslettel párosulnak.

A Meta, a Microsoft és az Amazon már idén több tízmilliárd dollárt fordított beruházásokra, a McKinsey becslései szerint pedig 2030-ra közel 7 billió dollár áramlik majd a globális adatközponti infrastruktúrába.

A pénz jelentős része egy szűk szereplői körön belül mozog, miközben egyre több technológiai óriás próbálja csökkenteni az Nvidia iránti függőségét. A Google és az OpenAI saját chipeket fejleszt, az AMD egyre komolyabb kihívóvá válik, míg a Qualcomm nemrég jelentette be belépését az adatközponti piacra.

„Senki sem akar az Nvidia-tól függni” – fogalmazott Ben Barringer, a Quilter Cheviot technológiai kutatásokért felelős globális vezetője egy korábbi CNN-interjúban.
„Mindenki megpróbálja diverzifikálni a chip portfólióját.”

RSS Feed Beágyazás

Ezeket olvastad már?

    Legfrissebb

    Hirdetés

    Csemegézz

    Ez is érdekelhet