นี่คือแอป Linux ชื่อ TensorRT ซึ่งสามารถดาวน์โหลดเวอร์ชันล่าสุดได้ที่ TensorRT10.13.3Releasesourcecode.tar.gz สามารถรันแอปนี้ทางออนไลน์ในผู้ให้บริการโฮสติ้งฟรี OnWorks สำหรับเวิร์กสเตชัน
ดาวน์โหลดและเรียกใช้แอปนี้ออนไลน์ชื่อ TensorRT พร้อม OnWorks ฟรี
ทำตามคำแนะนำเหล่านี้เพื่อเรียกใช้แอปนี้:
- 1. ดาวน์โหลดแอปพลิเคชั่นนี้ในพีซีของคุณ
- 2. เข้าไปที่ file manager https://www.onworks.net/myfiles.php?username=XXXXX ด้วยชื่อผู้ใช้ที่คุณต้องการ
- 3. อัปโหลดแอปพลิเคชันนี้ในตัวจัดการไฟล์ดังกล่าว
- 4. เริ่มโปรแกรมจำลองออนไลน์ของ OnWorks Linux หรือ Windows ออนไลน์ หรือโปรแกรมจำลองออนไลน์ MACOS จากเว็บไซต์นี้
- 5. จาก OnWorks Linux OS คุณเพิ่งเริ่มต้น ไปที่ตัวจัดการไฟล์ของเรา https://www.onworks.net/myfiles.php?username=XXXXX พร้อมชื่อผู้ใช้ที่คุณต้องการ
- 6. ดาวน์โหลดแอปพลิเคชั่น ติดตั้ง และเรียกใช้
ภาพหน้าจอ
Ad
เทนเซอร์RT
DESCRIPTION
NVIDIA® TensorRT™ เป็น SDK สำหรับการอนุมานการเรียนรู้เชิงลึกที่มีประสิทธิภาพสูง ประกอบด้วยเครื่องมือเพิ่มประสิทธิภาพการอนุมานการเรียนรู้เชิงลึกและรันไทม์ที่ให้เวลาแฝงต่ำและปริมาณงานสูงสำหรับแอปพลิเคชันการอนุมานการเรียนรู้เชิงลึก แอปพลิเคชันที่ใช้ TensorRT ทำงานได้เร็วกว่าแพลตฟอร์มที่ใช้ CPU เท่านั้นถึง 40 เท่าในระหว่างการอนุมาน ด้วย TensorRT คุณสามารถเพิ่มประสิทธิภาพโมเดลโครงข่ายประสาทเทียมที่ได้รับการฝึกฝนในกรอบงานหลักทั้งหมด ปรับเทียบเพื่อความแม่นยำที่ต่ำกว่าด้วยความแม่นยำสูง และปรับใช้กับศูนย์ข้อมูลระดับไฮเปอร์สเกล แบบฝัง หรือแพลตฟอร์มผลิตภัณฑ์ยานยนต์ TensorRT สร้างขึ้นบน CUDA® ซึ่งเป็นโมเดลการเขียนโปรแกรมคู่ขนานของ NVIDIA และช่วยให้คุณสามารถเพิ่มประสิทธิภาพการอนุมานโดยใช้ไลบรารี เครื่องมือในการพัฒนา และเทคโนโลยีใน CUDA-X™ สำหรับปัญญาประดิษฐ์ เครื่องอัตโนมัติ การประมวลผลประสิทธิภาพสูง และกราฟิก ด้วย GPU สถาปัตยกรรมแอมแปร์ NVIDIA ใหม่ TensorRT ยังใช้ประโยชน์จากเทนเซอร์คอร์ที่เบาบางเพื่อเพิ่มประสิทธิภาพเพิ่มเติม
คุณสมบัติ
- TensorRT จัดเตรียม INT8 โดยใช้ Quantization Aware Training และ Post Training Quantization
- การใช้งานจริงของแอปพลิเคชั่นการอนุมานเชิงลึก เช่น การสตรีมวิดีโอ การรู้จำเสียง การแนะนำ ฯลฯ
- การอนุมานที่แม่นยำที่ลดลงช่วยลดเวลาแฝงของแอปพลิเคชันลงอย่างมาก
- ด้วย TensorRT นักพัฒนาสามารถมุ่งเน้นไปที่การสร้างแอปพลิเคชั่นที่ขับเคลื่อนด้วย AI มากกว่าการปรับแต่งประสิทธิภาพสำหรับการปรับใช้การอนุมาน
- เพิ่มปริมาณงานสูงสุดด้วย FP16 หรือ INT8 โดยการวัดปริมาณแบบจำลองในขณะที่รักษาความแม่นยำ
- เพิ่มประสิทธิภาพการใช้หน่วยความจำ GPU และแบนด์วิดท์โดยการรวมโหนดในเคอร์เนล
ภาษาโปรแกรม
C + +
หมวดหมู่
นี่คือแอปพลิเคชันที่สามารถดึงข้อมูลจาก https://sourceforge.net/projects/tensorrt.mirror/ มีการโฮสต์ใน OnWorks เพื่อให้ทำงานออนไลน์ในวิธีที่ง่ายที่สุดจากหนึ่งในระบบปฏิบัติการฟรีของเรา