이것은 최신 릴리스를 TensorRTOSSv9.1.0sourcecode.zip으로 다운로드할 수 있는 TensorRT라는 Windows 앱입니다. 워크스테이션용 무료 호스팅 제공업체인 OnWorks에서 온라인으로 실행할 수 있습니다.
TensorRT with OnWorks라는 이 앱을 무료로 다운로드하여 온라인으로 실행해 보세요.
이 앱을 실행하려면 다음 지침을 따르세요.
- 1. 이 애플리케이션을 PC에 다운로드했습니다.
- 2. 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX에 원하는 사용자 이름을 입력합니다.
- 3. 이러한 파일 관리자에서 이 응용 프로그램을 업로드합니다.
- 4. 이 웹사이트에서 모든 OS OnWorks 온라인 에뮬레이터를 시작하지만 더 나은 Windows 온라인 에뮬레이터를 시작합니다.
- 5. 방금 시작한 OnWorks Windows OS에서 원하는 사용자 이름으로 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX로 이동합니다.
- 6. 애플리케이션을 다운로드하여 설치합니다.
- 7. Linux 배포 소프트웨어 저장소에서 Wine을 다운로드합니다. 설치가 완료되면 앱을 두 번 클릭하여 Wine과 함께 실행할 수 있습니다. 인기 있는 Windows 프로그램 및 게임을 설치하는 데 도움이 되는 Wine을 통한 멋진 인터페이스인 PlayOnLinux를 사용해 볼 수도 있습니다.
Wine은 Linux에서 Windows 소프트웨어를 실행하는 방법이지만 Windows가 필요하지 않습니다. Wine은 모든 Linux 데스크탑에서 직접 Windows 프로그램을 실행할 수 있는 오픈 소스 Windows 호환성 계층입니다. 본질적으로 Wine은 Windows가 필요하지 않고 모든 Windows 응용 프로그램을 실행할 수 있도록 Windows를 처음부터 충분히 다시 구현하려고 합니다.
스크린 샷
Ad
텐서 RT
기술
NVIDIA® TensorRT™는 고성능 딥 러닝 추론을 위한 SDK입니다. 여기에는 딥 러닝 추론 애플리케이션을 위한 낮은 대기 시간과 높은 처리량을 제공하는 딥 러닝 추론 최적화 프로그램과 런타임이 포함되어 있습니다. TensorRT 기반 애플리케이션은 추론 중에 CPU 전용 플랫폼보다 최대 40배 빠르게 수행됩니다. TensorRT를 사용하면 모든 주요 프레임워크에서 훈련된 신경망 모델을 최적화하고 높은 정확성으로 낮은 정밀도에 맞게 보정하고 대규모 데이터 센터, 임베디드 또는 자동차 제품 플랫폼에 배포할 수 있습니다. TensorRT는 NVIDIA의 병렬 프로그래밍 모델인 CUDA®를 기반으로 구축되었으며 인공 지능, 자율 기계, 고성능 컴퓨팅 및 그래픽을 위해 CUDA-X™의 라이브러리, 개발 도구 및 기술을 활용하여 추론을 최적화할 수 있습니다. 새로운 NVIDIA Ampere 아키텍처 GPU를 통해 TensorRT는 희소 텐서 코어를 활용하여 추가적인 성능 향상을 제공합니다.
기능
- TensorRT는 Quantization Aware Training 및 Post Training Quantization을 사용하여 INT8을 제공합니다.
- 비디오 스트리밍, 음성 인식, 추천 등 딥 러닝 추론 애플리케이션의 프로덕션 배포
- 정밀도 추론 감소로 애플리케이션 지연 시간 대폭 감소
- TensorRT를 사용하면 개발자는 추론 배포를 위한 성능 조정이 아닌 새로운 AI 기반 애플리케이션을 만드는 데 집중할 수 있습니다.
- 정확도를 유지하면서 모델을 양자화하여 FP16 또는 INT8로 처리량을 극대화합니다.
- 커널에 노드를 융합하여 GPU 메모리 및 대역폭 사용을 최적화합니다.
프로그래밍 언어
C + +
카테고리
이는 https://sourceforge.net/projects/tensorrt.mirror/에서도 가져올 수 있는 애플리케이션입니다. 무료 운영 체제 중 하나에서 가장 쉬운 방법으로 온라인으로 실행하기 위해 OnWorks에서 호스팅되었습니다.