Amazon Best VPN GoSearch

OnWorks 网站图标

适用于 Windows 的 TensorRT Backend For ONNX 下载

免费下载 TensorRT Backend For ONNX Windows 应用程序以在 Ubuntu 在线、Fedora 在线或 Debian 在线中在线运行 win Wine

这是名为 TensorRT Backend For ONNX 的 Windows 应用程序,其最新版本可以下载为 ONNX-TensorRT8.6EARelease.zip。 它可以在工作站的免费托管服务提供商 OnWorks 中在线运行。

免费下载并在线运行此名为 TensorRT Backend For ONNX with OnWorks 的应用程序。

请按照以下说明运行此应用程序:

- 1. 在您的 PC 中下载此应用程序。

- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。

- 3. 在这样的文件管理器中上传这个应用程序。

- 4. 从本网站启动任何 OS OnWorks 在线模拟器,但更好的 Windows 在线模拟器。

- 5. 从您刚刚启动的 OnWorks Windows 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。

- 6. 下载应用程序并安装。

- 7. 从您的 Linux 发行版软件存储库下载 Wine。 安装后,您可以双击该应用程序以使用 Wine 运行它们。 您还可以尝试 PlayOnLinux,这是 Wine 上的一个花哨界面,可帮助您安装流行的 Windows 程序和游戏。

Wine 是一种在 Linux 上运行 Windows 软件的方法,但不需要 Windows。 Wine 是一个开源的 Windows 兼容层,可以直接在任何 Linux 桌面上运行 Windows 程序。 本质上,Wine 试图从头开始重新实现足够多的 Windows,以便它可以运行所有这些 Windows 应用程序,而实际上不需要 Windows。

SCREENSHOTS

Ad


用于 ONNX 的 TensorRT 后端


商品描述

解析 ONNX 模型以使用 TensorRT 执行。 主分支的开发是针对最新版本的 TensorRT 8.4.1.5,具有全尺寸和动态形状支持。 对于以前版本的 TensorRT,请参考它们各自的分支。 在具有动态形状支持的全维度模式下构建 INetwork 对象需要调用 C++ 和 Python API。 当前支持的 ONNX 运算符可在运算符支持矩阵中找到。 对于在 docker 中构建,我们建议按照主(TensorRT 存储库)中的说明使用和设置 docker 容器。 请注意,此项目依赖于 CUDA。 默认情况下,构建将在 /usr/local/cuda 中查找 CUDA 工具包安装。 如果您的 CUDA 路径不同,请覆盖默认路径。 可以使用 onnx2trt 可执行文件将 ONNX 模型转换为序列化的 TensorRT 引擎。



特性

  • ONNX 模型可以转换为人类可读的文本
  • ONNX 模型可以转换为序列化的 TensorRT 引擎
  • ONNX 模型可以通过 ONNX 的优化库进行优化
  • Python 模块
  • TensorRT 8.4.1.5 支持 ONNX 1.8.0 版本
  • ONNX 的 TensorRT 后端可以在 Python 中使用


程式语言

C + +中


分类

机器学习

这个应用程序也可以从 https://sourceforge.net/projects/tensorrt-backend-onnx.mirror/ 获取。 它已托管在 OnWorks 中,以便以最简单的方式从我们的免费操作系统之一在线运行。


免费服务器和工作站

下载 Windows 和 Linux 应用程序

Linux 命令

Ad




×
广告
❤️在这里购物、预订或购买——免费,有助于保持服务免费。