Amazon Best VPN GoSearch

OnWorks 网站图标

适用于 Linux 的 TensorRT Backend For ONNX 下载

免费下载 TensorRT Backend For ONNX Linux 应用程序以在 Ubuntu 在线、Fedora 在线或 Debian 在线中在线运行

这是名为 TensorRT Backend For ONNX 的 Linux 应用程序,其最新版本可下载为 TensorRT10.12GAParserUpdatesourcecode.tar.gz。它可在免费的工作站托管服务提供商 OnWorks 上在线运行。

免费下载并在线运行此名为 TensorRT Backend For ONNX with OnWorks 的应用程序。

请按照以下说明运行此应用程序:

- 1. 在您的 PC 中下载此应用程序。

- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。

- 3. 在这样的文件管理器中上传这个应用程序。

- 4. 从此网站启动OnWorks Linux online 或Windows online emulator 或MACOS online emulator。

- 5. 从您刚刚启动的 OnWorks Linux 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。

- 6. 下载应用程序,安装并运行。

SCREENSHOTS

Ad


用于 ONNX 的 TensorRT 后端


商品描述

解析 ONNX 模型以使用 TensorRT 执行。 主分支的开发是针对最新版本的 TensorRT 8.4.1.5,具有全尺寸和动态形状支持。 对于以前版本的 TensorRT,请参考它们各自的分支。 在具有动态形状支持的全维度模式下构建 INetwork 对象需要调用 C++ 和 Python API。 当前支持的 ONNX 运算符可在运算符支持矩阵中找到。 对于在 docker 中构建,我们建议按照主(TensorRT 存储库)中的说明使用和设置 docker 容器。 请注意,此项目依赖于 CUDA。 默认情况下,构建将在 /usr/local/cuda 中查找 CUDA 工具包安装。 如果您的 CUDA 路径不同,请覆盖默认路径。 可以使用 onnx2trt 可执行文件将 ONNX 模型转换为序列化的 TensorRT 引擎。



特性

  • ONNX 模型可以转换为人类可读的文本
  • ONNX 模型可以转换为序列化的 TensorRT 引擎
  • ONNX 模型可以通过 ONNX 的优化库进行优化
  • Python 模块
  • TensorRT 8.4.1.5 支持 ONNX 1.8.0 版本
  • ONNX 的 TensorRT 后端可以在 Python 中使用


程式语言

C + +中


分类

机器学习

这个应用程序也可以从 https://sourceforge.net/projects/tensorrt-backend-onnx.mirror/ 获取。 它已托管在 OnWorks 中,以便以最简单的方式从我们的免费操作系统之一在线运行。


免费服务器和工作站

下载 Windows 和 Linux 应用程序

Linux 命令

Ad




×
广告
❤️在这里购物、预订或购买——免费,有助于保持服务免费。