GoGPT Best VPN GoSearch

favicon do OnWorks

Baixar TensorRT para Linux

Download grátis do aplicativo TensorRT Linux para rodar online no Ubuntu online, Fedora online ou Debian online

Este é o aplicativo Linux chamado TensorRT, cuja versão mais recente pode ser baixada como TensorRT10.13.3Releasesourcecode.tar.gz. Ele pode ser executado online no provedor de hospedagem gratuita OnWorks para estações de trabalho.

Baixe e execute online este aplicativo chamado TensorRT com OnWorks gratuitamente.

Siga estas instruções para executar este aplicativo:

- 1. Baixe este aplicativo em seu PC.

- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.

- 3. Carregue este aplicativo em tal gerenciador de arquivos.

- 4. Inicie o emulador OnWorks Linux online ou Windows online ou emulador MACOS online a partir deste site.

- 5. No sistema operacional OnWorks Linux que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.

- 6. Baixe o aplicativo, instale-o e execute-o.

SCREENSHOTS

Ad


TensorRT


DESCRIÇÃO

NVIDIA® TensorRT ™ é um SDK para inferência de aprendizado profundo de alto desempenho. Inclui um otimizador de inferência de aprendizado profundo e tempo de execução que oferece baixa latência e alto rendimento para aplicativos de inferência de aprendizado profundo. Os aplicativos baseados em TensorRT têm um desempenho até 40 vezes mais rápido do que as plataformas apenas de CPU durante a inferência. Com o TensorRT, você pode otimizar modelos de rede neural treinados em todas as principais estruturas, calibrar para obter menor precisão com alta precisão e implantar em centros de dados em hiperescala, plataformas de produtos incorporados ou automotivos. O TensorRT é baseado em CUDA®, o modelo de programação paralela da NVIDIA, e permite que você otimize bibliotecas de aproveitamento de inferência, ferramentas de desenvolvimento e tecnologias em CUDA-X ™ para inteligência artificial, máquinas autônomas, computação de alto desempenho e gráficos. Com as novas GPUs NVIDIA Ampere Architecture, o TensorRT também aproveita núcleos tensores esparsos, proporcionando um aumento de desempenho adicional.



Recursos

  • TensorRT fornece INT8 usando Quantization Aware Training e Post Training Quantization
  • Implementações de produção de aplicativos de inferência de aprendizado profundo, como streaming de vídeo, reconhecimento de fala, recomendação, etc.
  • A inferência de precisão reduzida reduz significativamente a latência do aplicativo
  • Com o TensorRT, os desenvolvedores podem se concentrar na criação de novos aplicativos baseados em IA, em vez de ajustar o desempenho para implantação de inferência
  • Maximiza o rendimento com FP16 ou INT8 quantizando modelos enquanto preserva a precisão
  • Otimiza o uso de memória GPU e largura de banda fundindo nós em um kernel


Linguagem de Programação

C + +


Categorias

Bibliotecas, Aprendizado de Máquina, Bibliotecas de Redes Neurais, Frameworks de Aprendizado Profundo, Tempos de Execução, Inferência LLM

Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/tensorrt.mirror/. Ele foi hospedado no OnWorks para ser executado online da maneira mais fácil a partir de um de nossos Sistemas Operativos gratuitos.


Servidores e estações de trabalho gratuitos

Baixar aplicativos Windows e Linux

Comandos Linux

Ad




×
Anúncios
❤ ️Compre, reserve ou compre aqui — sem custos, ajuda a manter os serviços gratuitos.