Wirtualizacja obliczeń dla AI, głębokiego uczenia i analizy danych
Udostępnianie GPU
Współdzielenie GPU jest możliwe tylko z technologią NVIDIA virtual GPU (vGPU). Umożliwia wielu maszynom wirtualnym współdzielenie GPU, maksymalizując wykorzystanie mniejszych obciążeń, które wymagają przyspieszenia GPU.
Agregacja GPU
Dzięki agregacji GPU maszyna wirtualna może uzyskać dostęp do więcej niż jednego procesora GPU, co jest często wymagane w przypadku obciążeń wymagających dużej mocy obliczeniowej. vCS obsługuje zarówno przetwarzanie multi-vGPU, jak i peer-to-peer. W przypadku multi-vGPU procesory graficzne nie są bezpośrednio połączone; w przypadku peer-to-peer wykorzystują NVLink dla większej przepustowości.
Zarządzanie i monitorowanie
NVIDIA vCS zapewnia obsługę monitorowania na poziomie aplikacji, klienta i hosta. Ponadto funkcje proaktywnego zarządzania zapewniają możliwość przeprowadzania migracji na żywo, zawieszania i wznawiania oraz tworzenia progów, które ujawniają trendy wykorzystania NVIDIA vGPU, a wszystko to za pośrednictwem zestawu SDK do zarządzania NVIDIA vGPU.
Obliczenia peer-to-peer
Technologia NVIDIA vGPU obsługuje NVIDIA NVLink ™ – szybkie, bezpośrednie połączenie GPU-GPU, które zapewnia wyższą przepustowość, więcej połączeń i ulepszoną skalowalność dla konfiguracji systemów z wieloma GPU.
ECC i separacja stron
Kod korekcji błędów (ECC) i separacja stron zapewniają wyższą niezawodność aplikacji obliczeniowych wrażliwych na uszkodzenie danych. Są szczególnie ważne w środowiskach obliczeń klastrowych na dużą skalę, w których procesory graficzne przetwarzają bardzo duże zbiory danych i / lub uruchamiają aplikacje przez dłuższy czas.
Wielokanałowy procesor graficzny (MIG)
Multi-Instance GPU (MIG) to rewolucyjna technologia, która umożliwia podzielenie każdego procesora graficznego NVIDIA A100 Tensor Core na maksymalnie siedem instancji, w pełni izolowanych i zabezpieczonych na poziomie sprzętowym za pomocą własnej pamięci o dużej przepustowości, pamięci podręcznej i rdzeni obliczeniowych. Dzięki oprogramowaniu vCS można uruchomić maszynę wirtualną na każdym z tych wystąpień MIG, co umożliwia zarządzanie, monitorowanie i korzyści operacyjne wynikające z wirtualizacji serwerów opartej na hiperwizorze.
GPUDirect
GPUDirect® RDMA (zdalny bezpośredni dostęp do pamięci) umożliwia urządzeniom sieciowym bezpośredni dostęp do pamięci GPU, omijając pamięć hosta procesora, zmniejszając opóźnienia komunikacji między GPU i całkowicie odciążając procesor.
Funkcjonalność rozwiązania NVIDIA vCS
NVIDIA vApps |
NVIDIA vPC |
NVIDIA vWS |
NVIDIA vCS |
|
Wirtualizacja desktopu | √ | √ | ||
Hosting aplikacji RDSH | √ | √ | √ | |
Hosting desktopu RDSH | √ | √ | √ | |
Wirtualizacja obliczeń | √ | √ | ||
Klient Windows OS | √ | √ | √ | |
Klient Linux OS | √ | √ | √ | |
Maks. liczba wirtualnych wyświetlaczy | 1 | 4 | 4 | 1 |
Maks. rozdzielczość | zależy od urządzenia użytkownika | 5120 x 2880 (5K) | 7680 x 4320 (8K) | 4096 x 2160 (4K) |
Funkcjonalność NVIDIA Quadro | √ | |||
Wsparcie dla CUDA i OpenCL | √ | √ | ||
ECC i separacja stron | √ | √ | ||
Multi-vGPU | √ | √ | ||
NVLink | √ | √ | ||
Wsparcie GPU Pass Trough | √ | √ | √ | |
Wsparcie dla „bare metal” | √ | √ | ||
Wspierane wielkości profili vGPU | NVIDIA vApps | NVIDIA vPC | NVIDIA vWS | NVIDIA vCS |
512 MB | √ | √ | ||
1 GB | √ | √ | √ | |
2 GB | √ | √ | √ | |
3 GB | √ | √ | ||
4 GB | √ | √ | √ | |
6 GB | √ | √ | √ | |
8 GB | √ | √ | √ | |
12 GB | √ | √ | √ | |
16 GB | √ | √ | √ | |
24 GB | √ | √ | √ | |
32 GB | √ | √ | √ | |
48 GB | √ | √ |