Este é o aplicativo para Windows chamado Torch-TensorRT, cuja versão mais recente pode ser baixada como libtorchtrt-2.9.0-tensorrt10.13.3-cuda130-libtorch2.9.0-x86_64-linux.tar.gz. Ele pode ser executado online no provedor de hospedagem gratuita OnWorks para estações de trabalho.
Baixe e execute online este aplicativo chamado Torch-TensorRT com OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie qualquer emulador on-line OS OnWorks a partir deste site, mas um emulador on-line melhor do Windows.
- 5. No sistema operacional OnWorks Windows que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo e instale-o.
- 7. Baixe o Wine de seus repositórios de software de distribuição Linux. Depois de instalado, você pode clicar duas vezes no aplicativo para executá-lo com o Wine. Você também pode experimentar o PlayOnLinux, uma interface sofisticada do Wine que o ajudará a instalar programas e jogos populares do Windows.
Wine é uma forma de executar software Windows no Linux, mas sem a necessidade de Windows. Wine é uma camada de compatibilidade do Windows de código aberto que pode executar programas do Windows diretamente em qualquer desktop Linux. Essencialmente, o Wine está tentando reimplementar o suficiente do Windows do zero para que possa executar todos os aplicativos do Windows sem realmente precisar do Windows.
CAPTURAS DE TELA:
Tocha-TensorRT
DESCRIÇÃO:
Torch-TensorRT é um compilador para PyTorch/TorchScript, voltado para GPUs NVIDIA por meio do otimizador e tempo de execução de aprendizagem profunda TensorRT da NVIDIA. Ao contrário do compilador Just-In-Time (JIT) do PyTorch, o Torch-TensorRT é um compilador Ahead-of-Time (AOT), o que significa que antes de implantar seu código TorchScript, você passa por uma etapa de compilação explícita para converter um programa TorchScript padrão em um módulo direcionado a um mecanismo TensorRT. O Torch-TensorRT opera como uma extensão do PyTorch e compila módulos que se integram perfeitamente ao tempo de execução do JIT. Após a compilação, usar o gráfico otimizado não deve ser diferente de executar um módulo TorchScript. Você também tem acesso ao conjunto de configurações do TensorRT em tempo de compilação, para poder especificar a precisão operacional (FP32/FP16/INT8) e outras configurações para o seu módulo.
Recursos
- Crie um contêiner docker para Torch-TensorRT
- Contêiner NVIDIA NGC
- Requer Libtorch 1.12.0 (criado com CUDA 11.3)
- Crie usando distribuições tarball cuDNN e TensorRT
- Testar usando o back-end do Python
- Você tem acesso ao conjunto de configurações do TensorRT em tempo de compilação
Linguagem de Programação
C + +
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/torch-tensorrt.mirror/. Ele foi hospedado em OnWorks para ser executado online da maneira mais fácil a partir de um de nossos Sistemas Operativos gratuitos.