Huawei Atlas 800 AI

Platforma do głębokiego uczenia się, dostosowana do potrzeb deweloperów i analityków danych AI

    Zapytaj o

    Huawei Atlas 800 AI

    Opis produktu Huawei Atlas 800 AI

    Dostosowane do potrzeb deweloperów i analityków danych AI, urządzenie Huawei Atlas 800 AI zapewnia kompleksowe możliwości wdrażania etykietowania danych, generowania modeli, szkoleń modelowych i usług wnioskowania modelowego. Dzięki zintegrowanemu oprogramowaniu i sprzętowi, to urządzenie zmniejsza wyjściowe wymagania techniczne aplikacji AI i umożliwia szybkie opracowywanie i wdrażanie usług AI dla klientów.

    Urządzenie Huawei Atlas 800 AI zawiera komponent Deep Learning Service (DLS), jako platformę do głębokiego uczenia się. Integruje dużą liczbę zoptymalizowanych algorytmów modeli sieciowych, aby pomóc użytkownikom w łatwym korzystaniu z technologii głębokiego uczenia się oraz zapewnia użytkownikom modelowe szkolenia, ewaluację i usługi wnioskowania poprzez elastyczne planowanie i usługi na żądanie.

    • Gotowy do pracy w ciągu 2 godzin z fabrycznie zainstalowanym środowiskiem programistycznym AI, bazową biblioteką oprogramowania i platformą programistyczną. Automatyczne generowanie modeli za pomocą AutoDL, automatyczne dostrajanie hiperparametrowe i wdrażanie modelu jednym kliknięciem
    • Zoptymalizowane środowisko AI oparte na standardowym środowisku programistycznym. Wysokowydajne algorytmy szeregowania, poprawiające wykorzystanie zasobów o ponad 15%.
    • Kompleksowe zarządzanie wykorzystaniem zasobów, monitorowaniem stanu i planowaniem zadań. Łatwy w użyciu interfejs WebUI, bardziej intuicyjny i wydajny niż interfejs wiersza poleceń (CLI).









































    Specyfikacja techniczna

    Model Atlas 800
    Klaster Maksymalna liczba węzłów 128
    Użytkownicy 1000
    Zalecane zadania (na użytkownika) Szkolenie 10
    Wnioskowanie 5
    Wizualizacja 5
    Opracowanie kodu 4
    Interfejs WWW i usługi
    Możliwość przetwarzania
    Maksymalna liczba użytkowników online 30
    Maksymalna liczba jednoczesnych żądań 30/s
    Opóźnienie przetwarzania żądań 3 s
    Wydajność przetwarzania API Maksymalna liczba użytkowników online 30
    Maksymalna liczba jednoczesnych żądań 30/s
    Opóźnienie przetwarzania żądań 3 s
    Specyfikacja sprzętu Karta akceleratora AI Każda karta akceleratora AI o pełnej szerokości:
    8 pełnowymiarowych kart akceleratorów sztucznej inteligencji (PCIe lub NVLink)
    Serwer Każdy 2-gniazdowy węzeł obliczeniowy o pełnej szerokości:
    2 procesory Xeon® Scalable®, 24 DDR4 DIMMs
    Dyski twarde 2 x 2,5-calowe SAS/SATA + 6 x 2,5-calowe NVMe
    Model PCIe: skalowalne do 8 x 3,5-calowych SAS/SATA
    Model NVLink: skalowalne do 8 x 2,5-calowych SAS/SATA
    RAID RAID 0, 1, 10, 5, 50, 6 lub 60
    I/O 4 x PCIe x16 LP + 2 x 10 GE LOM
    Jednostki zasilające 4 wymienialne podczas pracy 2200W AC lub 240V HVDC PSUs, z obsługą redundancji N + N
    Moduły wentylatorów 6 wymienialnych podczas pracy modułów wentylatorów, z obsługą redundancji N + 1
    Temperatura pracy 5°C do 35°C (41°F do 95°F)
    Wymiary (wys. x szer. x dł.) 175 mm x 447 mm x 790 mm (6,89 cala x 17,60 cala x 31,10 cala)






    Inni przeczytali także: