To aplikacja dla systemu Linux o nazwie DeepSpeed, której najnowszą wersję można pobrać jako v0.17.5PatchReleasesourcecode.tar.gz. Można ją uruchomić online na bezpłatnym hostingu OnWorks dla stacji roboczych.
Pobierz i uruchom online tę aplikację o nazwie DeepSpeed z OnWorks za darmo.
Postępuj zgodnie z tymi instrukcjami, aby uruchomić tę aplikację:
- 1. Pobrałem tę aplikację na swój komputer.
- 2. Wpisz w naszym menedżerze plików https://www.onworks.net/myfiles.php?username=XXXXX z wybraną nazwą użytkownika.
- 3. Prześlij tę aplikację w takim menedżerze plików.
- 4. Uruchom emulator online OnWorks Linux lub Windows online lub emulator online MACOS z tej witryny.
- 5. W systemie operacyjnym OnWorks Linux, który właśnie uruchomiłeś, przejdź do naszego menedżera plików https://www.onworks.net/myfiles.php?username=XXXXX z wybraną nazwą użytkownika.
- 6. Pobierz aplikację, zainstaluj ją i uruchom.
ZRZUTY EKRANU
Ad
Głęboka prędkość
OPIS
DeepSpeed to łatwy w obsłudze pakiet oprogramowania do optymalizacji głębokiego uczenia, który umożliwia niespotykaną dotąd skalę i szybkość szkolenia i wnioskowania w zakresie głębokiego uczenia. Dzięki DeepSpeed możesz:
1. Ucz/wywołuj gęste lub rzadkie modele z miliardami lub bilionami parametrów
2. Osiągnij doskonałą przepustowość systemu i wydajnie skaluj do tysięcy procesorów graficznych
3. Uczenie/wnioskowanie w systemach GPU o ograniczonych zasobach
4. Osiągnij bezprecedensowo niskie opóźnienia i wysoką przepustowość dla wnioskowania
5. Osiągnij ekstremalną kompresję, aby uzyskać niezrównane opóźnienie wnioskowania i zmniejszyć rozmiar modelu przy niskich kosztach
DeepSpeed oferuje połączenie innowacji systemowych, które sprawiły, że szkolenie DL na dużą skalę stało się skuteczne i wydajne, znacznie poprawiło łatwość użytkowania i na nowo zdefiniowało krajobraz szkoleń DL pod względem możliwej skali. Te innowacje, takie jak ZeRO, 3D-Parallelism, DeepSpeed-MoE, ZeRO-Infinity itp. wchodzą w skład filaru szkoleniowego.
Funkcjonalności
- DeepSpeed łączy innowacje w technologii równoległości, takie jak równoległość tensorowa, potokowa, ekspercka i zero-równoległość, a także łączy je z wysokowydajnymi, niestandardowymi jądrami wnioskowania, optymalizacją komunikacji i heterogenicznymi technologiami pamięci, aby umożliwić wnioskowanie na niespotykaną dotąd skalę, przy jednoczesnym osiągnięciu niezrównanych opóźnień, przepustowości i redukcja kosztów. Ta systematyczna kompozycja technologii systemowych do wnioskowania należy do filaru wnioskowania
- Aby jeszcze bardziej zwiększyć wydajność wnioskowania, DeepSpeed oferuje łatwe w użyciu i elastyczne w komponowaniu techniki kompresji dla naukowców i praktyków, aby skompresować swoje modele, zapewniając jednocześnie większą prędkość, mniejszy rozmiar modelu i znacznie obniżony koszt kompresji. Ponadto pod filarem kompresji uwzględniono innowacje SoTA w zakresie kompresji, takie jak ZeroQuant i XTC.
- Biblioteka DeepSpeed (to repozytorium) wdraża i łączy innowacje i technologie DeepSpeed Training, Inference i Compression Pillars w jednym, łatwym w użyciu, otwartym repozytorium. Pozwala na łatwe komponowanie wielu funkcji w ramach jednego potoku treningowego, wnioskowania lub kompresji. Biblioteka DeepSpeed jest szeroko stosowana przez społeczność DL i została wykorzystana do uruchomienia niektórych z najpotężniejszych modeli
Język programowania
Python
Kategorie
Jest to aplikacja, którą można również pobrać z https://sourceforge.net/projects/deepspeed.mirror/. Został umieszczony w OnWorks, aby można go było uruchomić online w najprostszy sposób z jednego z naszych bezpłatnych systemów operacyjnych.