La Computex 2025, ASUS a anunțat extinderea portofoliului său de infrastructură AI prin lansarea unei arhitecturi validate de NVIDIA pentru AI Enterprise Factory. Noul design ASUS AI POD este optimizat pentru implementări la scară largă de inteligență artificială, fiind disponibil în variante certificate NVIDIA pe platformele Grace Blackwell, HGX și MGX, atât pentru centre de date răcite cu aer, cât și cu lichid.
Soluții scalabile pentru implementări AI de mare densitate
Arhitectura ASUS AI POD este concepută pentru a susține sarcini AI complexe, folosind unități NVIDIA GB200/GB300 NVL72 și rețele NVIDIA Quantum InfiniBand sau Spectrum-X Ethernet. În configurație cu răcire lichidă, sistemul permite până la 576 de GPU-uri distribuite pe opt rackuri. Variantele răcite cu aer pot găzdui până la 72 de GPU-uri per rack.
Designul oferă un cadru standardizat pentru companii care urmăresc accelerarea implementărilor de AI, reducând riscurile asociate și timpul necesar punerii în funcțiune.
Sisteme pentru LLM și sarcini 3D complexe
ASUS a prezentat și noi rackuri compatibile cu platforma MGX, bazate pe procesoare Intel Xeon 6 și plăci RTX Pro 6000 Blackwell Server Edition. Acestea includ interfețe de rețea NVIDIA ConnectX-8 SuperNIC cu viteze de până la 800Gb/s. Integrarea cu platforma NVIDIA AI Enterprise asigură o soluție completă, scalabilă, destinată sarcinilor AI moderne.
Platforma HGX, în versiunile ASUS XA NB3I-E12 (HGX B300)…

























