This is the Windows app named Triton Inference Server whose latest release can be downloaded as Release2.59.0correspondingtoNGCcontainer25.06sourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
قم بتنزيل هذا التطبيق وتشغيله عبر الإنترنت المسمى Triton Inference Server مع OnWorks مجانًا.
اتبع هذه التعليمات لتشغيل هذا التطبيق:
- 1. قم بتنزيل هذا التطبيق على جهاز الكمبيوتر الخاص بك.
- 2. أدخل في مدير الملفات الخاص بنا https://www.onworks.net/myfiles.php؟username=XXXXX باسم المستخدم الذي تريده.
- 3. تحميل هذا التطبيق في هذا الملف.
- 4. ابدأ تشغيل أي محاكي لنظام التشغيل OnWorks عبر الإنترنت من موقع الويب هذا ، ولكن أفضل محاكي Windows عبر الإنترنت.
- 5. من نظام التشغيل OnWorks Windows الذي بدأته للتو ، انتقل إلى مدير الملفات الخاص بنا https://www.onworks.net/myfiles.php؟username=XXXXX مع اسم المستخدم الذي تريده.
- 6. قم بتنزيل التطبيق وتثبيته.
- 7. قم بتنزيل Wine من مستودعات برامج توزيعات Linux الخاصة بك. بمجرد التثبيت ، يمكنك النقر نقرًا مزدوجًا فوق التطبيق لتشغيله باستخدام Wine. يمكنك أيضًا تجربة PlayOnLinux ، وهي واجهة رائعة على Wine والتي ستساعدك على تثبيت برامج وألعاب Windows الشائعة.
يعد Wine طريقة لتشغيل برامج Windows على نظام Linux ، ولكن بدون الحاجة إلى Windows. Wine عبارة عن طبقة توافق Windows مفتوحة المصدر يمكنها تشغيل برامج Windows مباشرة على أي سطح مكتب Linux. بشكل أساسي ، يحاول Wine إعادة تنفيذ ما يكفي من Windows من البداية حتى يتمكن من تشغيل جميع تطبيقات Windows دون الحاجة إلى Windows بالفعل.
SCREENSHOTS
Ad
خادم الاستدلال تريتون
الوصف
Triton Inference Server هو برنامج مفتوح المصدر لخدمة الاستدلال يبسط استنتاج الذكاء الاصطناعي. يُمكّن Triton الفرق من نشر أي نموذج AI من أطر عمل متعددة للتعلم العميق والتعلم الآلي ، بما في ذلك TensorRT و TensorFlow و PyTorch و ONNX و OpenVINO و Python و RAPIDS FIL والمزيد. يدعم Triton الاستدلال عبر السحابة ومركز البيانات والحافة والأجهزة المضمنة على وحدات معالجة الرسومات NVIDIA و x86 و ARM CPU أو AWS Inferentia. يوفر Triton أداءً محسنًا للعديد من أنواع الاستعلام ، بما في ذلك الوقت الفعلي ، والمجمعات ، والمجموعات ، ودفق الصوت / الفيديو. يوفر Backend API الذي يسمح بإضافة خلفيات خلفية مخصصة وعمليات ما قبل / بعد المعالجة. نموذج خطوط الأنابيب باستخدام البرمجة النصية المنطقية أو التجميعية للأعمال (BLS). بروتوكولات الاستدلال HTTP / REST و GRPC على أساس بروتوكول KServe المطور من قبل المجتمع. تسمح AC API و Java API لـ Triton بالارتباط مباشرة بالتطبيق الخاص بك للحصول على Edge وحالات الاستخدام الأخرى قيد المعالجة.
شرح المميزات:
- يدعم العديد من أطر التعلم العميق
- يدعم العديد من أطر التعلم الآلي
- تنفيذ النموذج المتزامن
- الخلط الديناميكي
- التجميع التسلسلي وإدارة الحالة الضمنية للنماذج ذات الحالة
- يوفر واجهة برمجة تطبيقات Backend التي تسمح بإضافة خلفيات خلفية مخصصة وعمليات المعالجة السابقة / اللاحقة
لغة البرمجة
Python
التصنيفات
هذا تطبيق يمكن جلبه أيضًا من https://sourceforge.net/projects/triton-inference-server.mirror/. تمت استضافته في OnWorks ليتم تشغيله عبر الإنترنت بأسهل طريقة من أحد أنظمتنا التشغيلية المجانية.