Amazon Best VPN GoSearch

Значок OnWorks

Скачать TensorRT Backend для ONNX для Windows

Бесплатно загрузите приложение TensorRT Backend для ONNX для Windows, чтобы запустить онлайн win Wine в Ubuntu онлайн, Fedora онлайн или Debian онлайн

Это приложение для Windows под названием TensorRT Backend For ONNX, последний выпуск которого можно загрузить как ONNX-TensorRT8.6EARelease.zip. Его можно запустить онлайн на бесплатном хостинг-провайдере OnWorks для рабочих станций.

Загрузите и запустите онлайн это приложение под названием TensorRT Backend For ONNX with OnWorks бесплатно.

Следуйте этим инструкциям, чтобы запустить это приложение:

- 1. Загрузил это приложение на свой компьютер.

- 2. Введите в нашем файловом менеджере https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.

- 3. Загрузите это приложение в такой файловый менеджер.

- 4. Запустите любой онлайн-эмулятор OS OnWorks с этого сайта, но лучше онлайн-эмулятор Windows.

- 5. В только что запущенной ОС Windows OnWorks перейдите в наш файловый менеджер https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.

- 6. Скачайте приложение и установите его.

- 7. Загрузите Wine из репозиториев программного обеспечения вашего дистрибутива Linux. После установки вы можете дважды щелкнуть приложение, чтобы запустить его с помощью Wine. Вы также можете попробовать PlayOnLinux, необычный интерфейс поверх Wine, который поможет вам установить популярные программы и игры для Windows.

Wine - это способ запустить программное обеспечение Windows в Linux, но без Windows. Wine - это уровень совместимости с Windows с открытым исходным кодом, который может запускать программы Windows непосредственно на любом рабочем столе Linux. По сути, Wine пытается заново реализовать Windows с нуля, чтобы можно было запускать все эти Windows-приложения, фактически не нуждаясь в Windows.

СКРИНШОТЫ

Ad


Бэкенд TensorRT для ONNX


ОПИСАНИЕ

Разбирает модели ONNX для выполнения с помощью TensorRT. Разработка в основной ветке ведется для последней версии TensorRT 8.4.1.5 с поддержкой полных размеров и динамических форм. Предыдущие версии TensorRT см. в соответствующих ветках. Создание объектов INetwork в полноразмерном режиме с поддержкой динамической формы требует вызова API C++ и Python. Текущие поддерживаемые операторы ONNX указаны в матрице поддержки операторов. Для сборки в докере мы рекомендуем использовать и настраивать контейнеры докеров в соответствии с инструкциями в основном (репозиторий TensorRT). Обратите внимание, что этот проект зависит от CUDA. По умолчанию сборка будет искать в /usr/local/cuda установку инструментария CUDA. Если ваш путь CUDA отличается, перезапишите путь по умолчанию. Модели ONNX можно преобразовать в сериализованные механизмы TensorRT с помощью исполняемого файла onnx2trt.



Особенности

  • Модели ONNX могут быть преобразованы в удобочитаемый текст
  • Модели ONNX можно преобразовать в сериализованные механизмы TensorRT.
  • Модели ONNX можно оптимизировать с помощью библиотек оптимизации ONNX.
  • Модули Python
  • TensorRT 8.4.1.5 поддерживает ONNX версии 1.8.0.
  • Бэкенд TensorRT для ONNX можно использовать в Python


Язык программирования

C + +


Категории

Машинное обучение

Это приложение также можно загрузить с https://sourceforge.net/projects/tensorrt-backend-onnx.mirror/. Он был размещен в OnWorks, чтобы его можно было легко запускать в Интернете с помощью одной из наших бесплатных операционных систем.


Бесплатные серверы и рабочие станции

Скачать приложения для Windows и Linux

Команды Linux

Ad




×
Реклама
❤️Совершайте покупки, бронируйте или заказывайте здесь — никаких затрат, что помогает поддерживать бесплатность услуг.