Huawei Atlas 800 AI
Dostosowane do potrzeb deweloperów i analityków danych AI, urządzenie Huawei Atlas 800 AI zapewnia kompleksowe możliwości wdrażania etykietowania danych, generowania modeli, szkoleń modelowych i usług wnioskowania modelowego. Dzięki zintegrowanemu oprogramowaniu i sprzętowi, to urządzenie zmniejsza wyjściowe wymagania techniczne aplikacji AI i umożliwia szybkie opracowywanie i wdrażanie usług AI dla klientów.
Urządzenie Huawei Atlas 800 AI zawiera komponent Deep Learning Service (DLS), jako platformę do głębokiego uczenia się. Integruje dużą liczbę zoptymalizowanych algorytmów modeli sieciowych, aby pomóc użytkownikom w łatwym korzystaniu z technologii głębokiego uczenia się oraz zapewnia użytkownikom modelowe szkolenia, ewaluację i usługi wnioskowania poprzez elastyczne planowanie i usługi na żądanie.
- Gotowy do pracy w ciągu 2 godzin z fabrycznie zainstalowanym środowiskiem programistycznym AI, bazową biblioteką oprogramowania i platformą programistyczną. Automatyczne generowanie modeli za pomocą AutoDL, automatyczne dostrajanie hiperparametrowe i wdrażanie modelu jednym kliknięciem
- Zoptymalizowane środowisko AI oparte na standardowym środowisku programistycznym. Wysokowydajne algorytmy szeregowania, poprawiające wykorzystanie zasobów o ponad 15%.
- Kompleksowe zarządzanie wykorzystaniem zasobów, monitorowaniem stanu i planowaniem zadań. Łatwy w użyciu interfejs WebUI, bardziej intuicyjny i wydajny niż interfejs wiersza poleceń (CLI).
Model | Atlas 800 | |
Klaster | Maksymalna liczba węzłów | 128 |
Użytkownicy | 1000 | |
Zalecane zadania (na użytkownika) | Szkolenie | 10 |
Wnioskowanie | 5 | |
Wizualizacja | 5 | |
Opracowanie kodu | 4 | |
Interfejs WWW i usługi Możliwość przetwarzania |
Maksymalna liczba użytkowników online | 30 |
Maksymalna liczba jednoczesnych żądań | 30/s | |
Opóźnienie przetwarzania żądań | 3 s | |
Wydajność przetwarzania API | Maksymalna liczba użytkowników online | 30 |
Maksymalna liczba jednoczesnych żądań | 30/s | |
Opóźnienie przetwarzania żądań | 3 s | |
Specyfikacja sprzętu | Karta akceleratora AI | Każda karta akceleratora AI o pełnej szerokości: 8 pełnowymiarowych kart akceleratorów sztucznej inteligencji (PCIe lub NVLink) |
Serwer | Każdy 2-gniazdowy węzeł obliczeniowy o pełnej szerokości: 2 procesory Xeon® Scalable®, 24 DDR4 DIMMs |
|
Dyski twarde | 2 x 2,5-calowe SAS/SATA + 6 x 2,5-calowe NVMe Model PCIe: skalowalne do 8 x 3,5-calowych SAS/SATA Model NVLink: skalowalne do 8 x 2,5-calowych SAS/SATA |
|
RAID | RAID 0, 1, 10, 5, 50, 6 lub 60 | |
I/O | 4 x PCIe x16 LP + 2 x 10 GE LOM | |
Jednostki zasilające | 4 wymienialne podczas pracy 2200W AC lub 240V HVDC PSUs, z obsługą redundancji N + N | |
Moduły wentylatorów | 6 wymienialnych podczas pracy modułów wentylatorów, z obsługą redundancji N + 1 | |
Temperatura pracy | 5°C do 35°C (41°F do 95°F) | |
Wymiary (wys. x szer. x dł.) | 175 mm x 447 mm x 790 mm (6,89 cala x 17,60 cala x 31,10 cala) |