Đây là ứng dụng Linux có tên Torch-TensorRT có bản phát hành mới nhất có thể tải xuống dưới dạng Torch-TensorRTv1.3.0.zip. Nó có thể được chạy trực tuyến trong nhà cung cấp dịch vụ lưu trữ miễn phí OnWorks cho máy trạm.
Tải xuống và chạy trực tuyến ứng dụng này có tên Torch-TensorRT với OnWorks miễn phí.
Làm theo các hướng dẫn sau để chạy ứng dụng này:
- 1. Đã tải ứng dụng này xuống PC của bạn.
- 2. Nhập vào trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.
- 3. Tải lên ứng dụng này trong trình quản lý tệp như vậy.
- 4. Khởi động trình giả lập trực tuyến OnWorks Linux hoặc trình giả lập trực tuyến Windows hoặc trình mô phỏng trực tuyến MACOS từ trang web này.
- 5. Từ Hệ điều hành OnWorks Linux mà bạn vừa khởi động, hãy truy cập trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.
- 6. Tải xuống ứng dụng, cài đặt và chạy nó.
MÀN HÌNH
Ad
Torch-TensorRT
MÔ TẢ
Torch-TensorRT là trình biên dịch cho PyTorch/TorchScript, nhắm mục tiêu GPU NVIDIA thông qua Trình tối ưu hóa học tập sâu TensorRT của NVIDIA và Thời gian chạy. Không giống như trình biên dịch Just-In-Time (JIT) của PyTorch, Torch-TensorRT là trình biên dịch Ahead-of-Time (AOT), nghĩa là trước khi bạn triển khai mã TorchScript, bạn sẽ trải qua một bước biên dịch rõ ràng để chuyển đổi chương trình TorchScript tiêu chuẩn thành một mô-đun nhắm mục tiêu một công cụ TensorRT. Torch-TensorRT hoạt động như một tiện ích mở rộng của PyTorch và biên dịch các mô-đun tích hợp liền mạch vào thời gian chạy JIT. Sau khi biên dịch bằng biểu đồ được tối ưu hóa, bạn sẽ không cảm thấy khác gì so với khi chạy mô-đun TorchScript. Bạn cũng có quyền truy cập vào bộ cấu hình của TensorRT tại thời điểm biên dịch, do đó bạn có thể chỉ định độ chính xác vận hành (FP32/FP16/INT8) và các cài đặt khác cho mô-đun của mình.
Tính năng
- Xây dựng bộ chứa docker cho Torch-TensorRT
- Bộ chứa NVIDIA NGC
- Yêu cầu Libtorch 1.12.0 (được xây dựng với CUDA 11.3)
- Xây dựng bằng phân phối tarball cuDNN & TensorRT
- Kiểm tra bằng phụ trợ Python
- Bạn có quyền truy cập vào bộ cấu hình của TensorRT tại thời điểm biên dịch
Ngôn ngữ lập trình
C + +
Danh Mục
Đây là một ứng dụng cũng có thể được tìm nạp từ https://sourceforge.net/projects/torch-tensorrt.mirror/. Nó đã được lưu trữ trong OnWorks để có thể chạy trực tuyến theo cách dễ dàng nhất từ một trong các Hệ điều hành miễn phí của chúng tôi.