Este é o aplicativo Linux chamado TensorRT, cuja versão mais recente pode ser baixada como TensorRT10.13.3Releasesourcecode.tar.gz. Ele pode ser executado online no provedor de hospedagem gratuita OnWorks para estações de trabalho.
Baixe e execute online este aplicativo chamado TensorRT com OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie o emulador OnWorks Linux online ou Windows online ou emulador MACOS online a partir deste site.
- 5. No sistema operacional OnWorks Linux que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo, instale-o e execute-o.
SCREENSHOTS
Ad
TensorRT
DESCRIÇÃO
NVIDIA® TensorRT ™ é um SDK para inferência de aprendizado profundo de alto desempenho. Inclui um otimizador de inferência de aprendizado profundo e tempo de execução que oferece baixa latência e alto rendimento para aplicativos de inferência de aprendizado profundo. Os aplicativos baseados em TensorRT têm um desempenho até 40 vezes mais rápido do que as plataformas apenas de CPU durante a inferência. Com o TensorRT, você pode otimizar modelos de rede neural treinados em todas as principais estruturas, calibrar para obter menor precisão com alta precisão e implantar em centros de dados em hiperescala, plataformas de produtos incorporados ou automotivos. O TensorRT é baseado em CUDA®, o modelo de programação paralela da NVIDIA, e permite que você otimize bibliotecas de aproveitamento de inferência, ferramentas de desenvolvimento e tecnologias em CUDA-X ™ para inteligência artificial, máquinas autônomas, computação de alto desempenho e gráficos. Com as novas GPUs NVIDIA Ampere Architecture, o TensorRT também aproveita núcleos tensores esparsos, proporcionando um aumento de desempenho adicional.
Recursos
- TensorRT fornece INT8 usando Quantization Aware Training e Post Training Quantization
- Implementações de produção de aplicativos de inferência de aprendizado profundo, como streaming de vídeo, reconhecimento de fala, recomendação, etc.
- A inferência de precisão reduzida reduz significativamente a latência do aplicativo
- Com o TensorRT, os desenvolvedores podem se concentrar na criação de novos aplicativos baseados em IA, em vez de ajustar o desempenho para implantação de inferência
- Maximiza o rendimento com FP16 ou INT8 quantizando modelos enquanto preserva a precisão
- Otimiza o uso de memória GPU e largura de banda fundindo nós em um kernel
Linguagem de Programação
C + +
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/tensorrt.mirror/. Ele foi hospedado no OnWorks para ser executado online da maneira mais fácil a partir de um de nossos Sistemas Operativos gratuitos.