Amazon Best VPN GoSearch

OnWorks فافيكون

تنزيل Triton Inference Server لنظام التشغيل Windows

قم بتنزيل تطبيق Windows Triton Inference Server مجانًا لتشغيل Wine عبر الإنترنت في Ubuntu عبر الإنترنت أو Fedora عبر الإنترنت أو Debian عبر الإنترنت

This is the Windows app named Triton Inference Server whose latest release can be downloaded as Release2.59.0correspondingtoNGCcontainer25.06sourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.

قم بتنزيل هذا التطبيق وتشغيله عبر الإنترنت المسمى Triton Inference Server مع OnWorks مجانًا.

اتبع هذه التعليمات لتشغيل هذا التطبيق:

- 1. قم بتنزيل هذا التطبيق على جهاز الكمبيوتر الخاص بك.

- 2. أدخل في مدير الملفات الخاص بنا https://www.onworks.net/myfiles.php؟username=XXXXX باسم المستخدم الذي تريده.

- 3. تحميل هذا التطبيق في هذا الملف.

- 4. ابدأ تشغيل أي محاكي لنظام التشغيل OnWorks عبر الإنترنت من موقع الويب هذا ، ولكن أفضل محاكي Windows عبر الإنترنت.

- 5. من نظام التشغيل OnWorks Windows الذي بدأته للتو ، انتقل إلى مدير الملفات الخاص بنا https://www.onworks.net/myfiles.php؟username=XXXXX مع اسم المستخدم الذي تريده.

- 6. قم بتنزيل التطبيق وتثبيته.

- 7. قم بتنزيل Wine من مستودعات برامج توزيعات Linux الخاصة بك. بمجرد التثبيت ، يمكنك النقر نقرًا مزدوجًا فوق التطبيق لتشغيله باستخدام Wine. يمكنك أيضًا تجربة PlayOnLinux ، وهي واجهة رائعة على Wine والتي ستساعدك على تثبيت برامج وألعاب Windows الشائعة.

يعد Wine طريقة لتشغيل برامج Windows على نظام Linux ، ولكن بدون الحاجة إلى Windows. Wine عبارة عن طبقة توافق Windows مفتوحة المصدر يمكنها تشغيل برامج Windows مباشرة على أي سطح مكتب Linux. بشكل أساسي ، يحاول Wine إعادة تنفيذ ما يكفي من Windows من البداية حتى يتمكن من تشغيل جميع تطبيقات Windows دون الحاجة إلى Windows بالفعل.

SCREENSHOTS

Ad


خادم الاستدلال تريتون


الوصف

Triton Inference Server هو برنامج مفتوح المصدر لخدمة الاستدلال يبسط استنتاج الذكاء الاصطناعي. يُمكّن Triton الفرق من نشر أي نموذج AI من أطر عمل متعددة للتعلم العميق والتعلم الآلي ، بما في ذلك TensorRT و TensorFlow و PyTorch و ONNX و OpenVINO و Python و RAPIDS FIL والمزيد. يدعم Triton الاستدلال عبر السحابة ومركز البيانات والحافة والأجهزة المضمنة على وحدات معالجة الرسومات NVIDIA و x86 و ARM CPU أو AWS Inferentia. يوفر Triton أداءً محسنًا للعديد من أنواع الاستعلام ، بما في ذلك الوقت الفعلي ، والمجمعات ، والمجموعات ، ودفق الصوت / الفيديو. يوفر Backend API الذي يسمح بإضافة خلفيات خلفية مخصصة وعمليات ما قبل / بعد المعالجة. نموذج خطوط الأنابيب باستخدام البرمجة النصية المنطقية أو التجميعية للأعمال (BLS). بروتوكولات الاستدلال HTTP / REST و GRPC على أساس بروتوكول KServe المطور من قبل المجتمع. تسمح AC API و Java API لـ Triton بالارتباط مباشرة بالتطبيق الخاص بك للحصول على Edge وحالات الاستخدام الأخرى قيد المعالجة.



شرح المميزات:

  • يدعم العديد من أطر التعلم العميق
  • يدعم العديد من أطر التعلم الآلي
  • تنفيذ النموذج المتزامن
  • الخلط الديناميكي
  • التجميع التسلسلي وإدارة الحالة الضمنية للنماذج ذات الحالة
  • يوفر واجهة برمجة تطبيقات Backend التي تسمح بإضافة خلفيات خلفية مخصصة وعمليات المعالجة السابقة / اللاحقة


لغة البرمجة

Python


التصنيفات

التعلم الآلي، أطر التعلم العميق، استدلال ماجستير القانون

هذا تطبيق يمكن جلبه أيضًا من https://sourceforge.net/projects/triton-inference-server.mirror/. تمت استضافته في OnWorks ليتم تشغيله عبر الإنترنت بأسهل طريقة من أحد أنظمتنا التشغيلية المجانية.


خوادم ومحطات عمل مجانية

قم بتنزيل تطبيقات Windows و Linux

أوامر لينكس

Ad




×
الإعلانات
❤️تسوق أو احجز أو اشترِ هنا - بدون تكلفة، مما يساعد على إبقاء الخدمات مجانية.