Este é o aplicativo Linux denominado DeepSpeed, cuja versão mais recente pode ser baixada como v0.11.1_Patchrelease.zip. Ele pode ser executado online no provedor de hospedagem gratuito OnWorks para estações de trabalho.
Baixe e execute online este aplicativo chamado DeepSpeed with OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie o emulador OnWorks Linux online ou Windows online ou emulador MACOS online a partir deste site.
- 5. No sistema operacional OnWorks Linux que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo, instale-o e execute-o.
SCREENSHOTS
Ad
Velocidade Profunda
DESCRIÇÃO
O DeepSpeed é um conjunto de software de otimização de aprendizado profundo fácil de usar que permite escala e velocidade sem precedentes para treinamento e inferência de aprendizado profundo. Com o DeepSpeed você pode:
1. Treinar/inferir modelos densos ou esparsos com bilhões ou trilhões de parâmetros
2. Alcance excelente taxa de transferência do sistema e dimensione com eficiência para milhares de GPUs
3. Treinar/inferir em sistemas de GPU com recursos limitados
4. Obtenha baixa latência sem precedentes e alta taxa de transferência para inferência
5. Obtenha compactação extrema para uma latência de inferência incomparável e redução do tamanho do modelo com custos baixos
O DeepSpeed oferece uma confluência de inovações de sistema, que tornou o treinamento DL em larga escala eficaz e eficiente, melhorou muito a facilidade de uso e redefiniu o cenário de treinamento DL em termos de escala possível. Essas inovações como ZeRO, 3D-Parallelism, DeepSpeed-MoE, ZeRO-Infinity, etc. se enquadram no pilar de treinamento.
Funcionalidades
- O DeepSpeed reúne inovações em tecnologia de paralelismo, como tensor, pipeline, especialista e paralelismo ZeRO, e os combina com kernels de inferência personalizados de alto desempenho, otimizações de comunicação e tecnologias de memória heterogênea para permitir inferência em uma escala sem precedentes, ao mesmo tempo em que obtém latência, taxa de transferência e redução de custos. Essa composição sistemática de tecnologias de sistema para inferência se enquadra no pilar de inferência
- Para aumentar ainda mais a eficiência da inferência, o DeepSpeed oferece técnicas de compactação fáceis de usar e flexíveis para compor para pesquisadores e profissionais para compactar seus modelos enquanto oferece velocidade mais rápida, tamanho de modelo menor e custo de compactação significativamente reduzido. Além disso, as inovações SoTA na compressão, como ZeroQuant e XTC, estão incluídas no pilar de compressão.
- A biblioteca DeepSpeed (este repositório) implementa e agrupa as inovações e tecnologias dos pilares DeepSpeed Training, Inference e Compression em um único repositório de código aberto e fácil de usar. Ele permite a composição fácil de vários recursos em um único pipeline de treinamento, inferência ou compressão. A Biblioteca DeepSpeed é amplamente adotada pela comunidade DL e tem sido usada para habilitar alguns dos modelos mais poderosos
Linguagem de Programação
Python
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/deepspeed.mirror/. Ele foi hospedado em OnWorks para ser executado online da maneira mais fácil a partir de um de nossos Sistemas Operativos gratuitos.