This is the Linux app named TensorRT whose latest release can be downloaded as TensorRT10.12Releasesourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
Descargue y ejecute en línea esta aplicación llamada TensorRT con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie el emulador en línea OnWorks Linux o Windows en línea o el emulador en línea MACOS desde este sitio web.
- 5. Desde el SO OnWorks Linux que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación, instálala y ejecútala.
SCREENSHOTS
Ad
TensorRT
DESCRIPCIÓN
NVIDIA® TensorRT ™ es un SDK para inferencia de aprendizaje profundo de alto rendimiento. Incluye un optimizador de inferencia de aprendizaje profundo y un tiempo de ejecución que ofrece baja latencia y alto rendimiento para aplicaciones de inferencia de aprendizaje profundo. Las aplicaciones basadas en TensorRT funcionan hasta 40 veces más rápido que las plataformas solo con CPU durante la inferencia. Con TensorRT, puede optimizar los modelos de redes neuronales entrenados en todos los marcos principales, calibrar para obtener una precisión más baja con alta precisión e implementarlos en centros de datos de hiperescala, plataformas de productos automotrices o integradas. TensorRT se basa en CUDA®, el modelo de programación paralela de NVIDIA, y le permite optimizar bibliotecas de aprovechamiento de inferencias, herramientas de desarrollo y tecnologías en CUDA-X ™ para inteligencia artificial, máquinas autónomas, computación de alto rendimiento y gráficos. Con las nuevas GPU NVIDIA Ampere Architecture, TensorRT también aprovecha los núcleos tensores escasos que brindan un aumento adicional del rendimiento.
Caracteristicas
- TensorRT proporciona INT8 utilizando Quantization Aware Training y Post Training Quantization
- Implementaciones de producción de aplicaciones de inferencia de aprendizaje profundo como transmisión de video, reconocimiento de voz, recomendación, etc.
- La inferencia de precisión reducida reduce significativamente la latencia de la aplicación
- Con TensorRT, los desarrolladores pueden centrarse en crear nuevas aplicaciones impulsadas por IA en lugar de ajustar el rendimiento para la implementación de inferencias.
- Maximiza el rendimiento con FP16 o INT8 cuantificando modelos y conservando la precisión
- Optimiza el uso de la memoria y el ancho de banda de la GPU fusionando nodos en un kernel
Lenguaje de programación
C + +
Categorías
Esta es una aplicación que también se puede obtener de https://sourceforge.net/projects/tensorrt.mirror/. Se ha alojado en OnWorks para poder ejecutarlo online de la forma más sencilla desde uno de nuestros Sistemas Operativos gratuitos.