Napędzany przez NVIDIA GB10 (CPU Grace + GPU Blackwell), zapewniający 1000 AI TOPS i 128 GB pamięci do dostrajania modeli 200B.
Stworzona z myślą o badaczach i twórcach AI, z pełną kompatybilnością stosu i usprawnionym przepływem pracy.
Zaprojektowane chłodzenie gwarantuje stałą wysoką wydajność i niezawodność w ultra kompaktowej obudowie.
Umożliwiająca rozwój bezpiecznych, długo działających autonomicznych agentów poprzez wykorzystanie NVIDIA NemoClaw do stworzenia platformy gotowej na agentów, z izolowanymi piaskownicami, zarządzaną kontrolą dostępu i prywatnym wnioskowaniem na urządzeniu.
Z technologią NVIDIA® NVLink™-C2C dla ultraszybkiej komunikacji pamięci CPU-GPU oraz siecią NVIDIA® ConnectX-7 do obsługi podwójnego stosu systemu GX10, zapewniającego wyjątkową skalowalność i wydajność.
Wysoka gęstość mocy obliczeniowej w kompaktowym systemie przeznaczonym do laboratoriów, biur i środowisk brzegowych.
NVIDIA DGX OS (oparty na Ubuntu) - zoptymalizowane środowisko AI, gotowe do użycia. NVIDIA AI Software Stack - wstępnie załadowane frameworki, zestawy SDK i narzędzia do szybkiego wdrażania.
CUDA, PyTorch, TensorFlow, Jupyter - zoptymalizowane pod kątem rozwoju modeli AI i wnioskowania. NVIDIA TensorRT - wysokowydajny silnik wnioskowania AI. NVIDIA NIMs & Blueprints - gotowe przepływy pracy AI i mikrousługi.
DeepSeek R1 - wnioskowanie AI zoptymalizowane do 70B parametrów. Llama 3.1 - generatywna AI do 405B parametrów (dual-GX10). Meta, modele Google - szeroka kompatybilność z wiodącymi w branży frameworkami AI.
Przełomowy superkomputer AI ASUS Ascent GX10, napędzany najnowocześniejszym układem NVIDIA® GB10 Grace Blackwell Superchip, znajdującym się w NVIDIA DGX Spark, zapewnia możliwości obliczeniowe AI w skali petaflopów, bezpośrednio na biurkach programistów, badaczy AI i naukowców, zajmujących się danymi. To innowacyjne urządzenie zostało zaprojektowane w celu wzmocnienia lokalnego rozwoju sztucznej inteligencji, dzięki wyjątkowej wydajności i funkcjom.

Niezrównana wydajność sztucznej inteligencji


Wykorzystaj architekturę oprogramowania platformy NVIDIA AI do przenoszenia modeli ze środowisk desktopowych do DGX Cloud lub dowolnej akcelerowanej infrastruktury chmury lub centrum danych przy minimalnych modyfikacjach kodu.
Uwolnienie niezbędnych zasobów obliczeniowych w klastrach lepiej dostosowanych do szkolenia i wdrażania modeli produkcyjnych.