GoGPT Best VPN GoSearch

Значок OnWorks

Скачать TensorRT Backend для ONNX для Windows

Бесплатно загрузите приложение TensorRT Backend для ONNX для Windows, чтобы запустить онлайн win Wine в Ubuntu онлайн, Fedora онлайн или Debian онлайн

Это приложение для Windows под названием TensorRT Backend For ONNX, последнюю версию которого можно скачать как TensorRT10.13GAParserUpdatesourcecode.tar.gz. Его можно запустить онлайн на бесплатном хостинг-провайдере OnWorks для рабочих станций.

Загрузите и запустите онлайн это приложение под названием TensorRT Backend For ONNX with OnWorks бесплатно.

Следуйте этим инструкциям, чтобы запустить это приложение:

- 1. Загрузил это приложение на свой компьютер.

- 2. Введите в нашем файловом менеджере https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.

- 3. Загрузите это приложение в такой файловый менеджер.

- 4. Запустите любой онлайн-эмулятор OS OnWorks с этого сайта, но лучше онлайн-эмулятор Windows.

- 5. В только что запущенной ОС Windows OnWorks перейдите в наш файловый менеджер https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.

- 6. Скачайте приложение и установите его.

- 7. Загрузите Wine из репозиториев программного обеспечения вашего дистрибутива Linux. После установки вы можете дважды щелкнуть приложение, чтобы запустить его с помощью Wine. Вы также можете попробовать PlayOnLinux, необычный интерфейс поверх Wine, который поможет вам установить популярные программы и игры для Windows.

Wine - это способ запустить программное обеспечение Windows в Linux, но без Windows. Wine - это уровень совместимости с Windows с открытым исходным кодом, который может запускать программы Windows непосредственно на любом рабочем столе Linux. По сути, Wine пытается заново реализовать Windows с нуля, чтобы можно было запускать все эти Windows-приложения, фактически не нуждаясь в Windows.

СКРИНШОТЫ

Ad


Бэкенд TensorRT для ONNX


ОПИСАНИЕ

Разбирает модели ONNX для выполнения с помощью TensorRT. Разработка в основной ветке ведется для последней версии TensorRT 8.4.1.5 с поддержкой полных размеров и динамических форм. Предыдущие версии TensorRT см. в соответствующих ветках. Создание объектов INetwork в полноразмерном режиме с поддержкой динамической формы требует вызова API C++ и Python. Текущие поддерживаемые операторы ONNX указаны в матрице поддержки операторов. Для сборки в докере мы рекомендуем использовать и настраивать контейнеры докеров в соответствии с инструкциями в основном (репозиторий TensorRT). Обратите внимание, что этот проект зависит от CUDA. По умолчанию сборка будет искать в /usr/local/cuda установку инструментария CUDA. Если ваш путь CUDA отличается, перезапишите путь по умолчанию. Модели ONNX можно преобразовать в сериализованные механизмы TensorRT с помощью исполняемого файла onnx2trt.



Особенности

  • Модели ONNX могут быть преобразованы в удобочитаемый текст
  • Модели ONNX можно преобразовать в сериализованные механизмы TensorRT.
  • Модели ONNX можно оптимизировать с помощью библиотек оптимизации ONNX.
  • Модули Python
  • TensorRT 8.4.1.5 поддерживает ONNX версии 1.8.0.
  • Бэкенд TensorRT для ONNX можно использовать в Python


Язык программирования

C + +


Категории

Машинное обучение

Это приложение также можно загрузить с https://sourceforge.net/projects/tensorrt-backend-onnx.mirror/. Он был размещен в OnWorks, чтобы его можно было легко запускать в Интернете с помощью одной из наших бесплатных операционных систем.


Бесплатные серверы и рабочие станции

Скачать приложения для Windows и Linux

Команды Linux

Ad




×
Реклама
❤️Совершайте покупки, бронируйте или заказывайте здесь — никаких затрат, что помогает поддерживать бесплатность услуг.