Это приложение для Windows под названием TensorRT Backend For ONNX, последний выпуск которого можно загрузить как ONNX-TensorRT8.6EARelease.zip. Его можно запустить онлайн на бесплатном хостинг-провайдере OnWorks для рабочих станций.
Загрузите и запустите онлайн это приложение под названием TensorRT Backend For ONNX with OnWorks бесплатно.
Следуйте этим инструкциям, чтобы запустить это приложение:
- 1. Загрузил это приложение на свой компьютер.
- 2. Введите в нашем файловом менеджере https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.
- 3. Загрузите это приложение в такой файловый менеджер.
- 4. Запустите любой онлайн-эмулятор OS OnWorks с этого сайта, но лучше онлайн-эмулятор Windows.
- 5. В только что запущенной ОС Windows OnWorks перейдите в наш файловый менеджер https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.
- 6. Скачайте приложение и установите его.
- 7. Загрузите Wine из репозиториев программного обеспечения вашего дистрибутива Linux. После установки вы можете дважды щелкнуть приложение, чтобы запустить его с помощью Wine. Вы также можете попробовать PlayOnLinux, необычный интерфейс поверх Wine, который поможет вам установить популярные программы и игры для Windows.
Wine - это способ запустить программное обеспечение Windows в Linux, но без Windows. Wine - это уровень совместимости с Windows с открытым исходным кодом, который может запускать программы Windows непосредственно на любом рабочем столе Linux. По сути, Wine пытается заново реализовать Windows с нуля, чтобы можно было запускать все эти Windows-приложения, фактически не нуждаясь в Windows.
СКРИНШОТЫ
Ad
Бэкенд TensorRT для ONNX
ОПИСАНИЕ
Разбирает модели ONNX для выполнения с помощью TensorRT. Разработка в основной ветке ведется для последней версии TensorRT 8.4.1.5 с поддержкой полных размеров и динамических форм. Предыдущие версии TensorRT см. в соответствующих ветках. Создание объектов INetwork в полноразмерном режиме с поддержкой динамической формы требует вызова API C++ и Python. Текущие поддерживаемые операторы ONNX указаны в матрице поддержки операторов. Для сборки в докере мы рекомендуем использовать и настраивать контейнеры докеров в соответствии с инструкциями в основном (репозиторий TensorRT). Обратите внимание, что этот проект зависит от CUDA. По умолчанию сборка будет искать в /usr/local/cuda установку инструментария CUDA. Если ваш путь CUDA отличается, перезапишите путь по умолчанию. Модели ONNX можно преобразовать в сериализованные механизмы TensorRT с помощью исполняемого файла onnx2trt.
Особенности
- Модели ONNX могут быть преобразованы в удобочитаемый текст
- Модели ONNX можно преобразовать в сериализованные механизмы TensorRT.
- Модели ONNX можно оптимизировать с помощью библиотек оптимизации ONNX.
- Модули Python
- TensorRT 8.4.1.5 поддерживает ONNX версии 1.8.0.
- Бэкенд TensorRT для ONNX можно использовать в Python
Язык программирования
C + +
Категории
Это приложение также можно загрузить с https://sourceforge.net/projects/tensorrt-backend-onnx.mirror/. Он был размещен в OnWorks, чтобы его можно было легко запускать в Интернете с помощью одной из наших бесплатных операционных систем.