Bu, en son sürümü NGCcontainer2.38.0.zip'e karşılık gelen Release23.09 olarak indirilebilen Triton Inference Server adlı Windows uygulamasıdır. İş istasyonları için ücretsiz barındırma sağlayıcısı OnWorks'te çevrimiçi olarak çalıştırılabilir.
OnWorks ile Triton Inference Server adlı bu uygulamayı ücretsiz olarak indirin ve çevrimiçi çalıştırın.
Bu uygulamayı çalıştırmak için şu talimatları izleyin:
- 1. Bu uygulamayı PC'nize indirdiniz.
- 2. Dosya yöneticimize https://www.onworks.net/myfiles.php?username=XXXXX istediğiniz kullanıcı adını girin.
- 3. Bu uygulamayı böyle bir dosya yöneticisine yükleyin.
- 4. Bu web sitesinden herhangi bir OS OnWorks çevrimiçi öykünücüsünü başlatın, ancak daha iyi Windows çevrimiçi öykünücüsü.
- 5. Yeni başlattığınız OnWorks Windows işletim sisteminden, istediğiniz kullanıcı adıyla https://www.onworks.net/myfiles.php?username=XXXXX dosya yöneticimize gidin.
- 6. Uygulamayı indirin ve kurun.
- 7. Wine'ı Linux dağıtımları yazılım havuzlarınızdan indirin. Kurulduktan sonra, Wine ile çalıştırmak için uygulamaya çift tıklayabilirsiniz. Ayrıca, popüler Windows programlarını ve oyunlarını yüklemenize yardımcı olacak Wine üzerinden gösterişli bir arayüz olan PlayOnLinux'u da deneyebilirsiniz.
Wine, Windows yazılımını Linux üzerinde çalıştırmanın bir yoludur, ancak Windows gerektirmez. Wine, Windows programlarını doğrudan herhangi bir Linux masaüstünde çalıştırabilen açık kaynaklı bir Windows uyumluluk katmanıdır. Esasen Wine, Windows'a ihtiyaç duymadan tüm bu Windows uygulamalarını çalıştırabilmesi için yeterince Windows'u sıfırdan yeniden uygulamaya çalışıyor.
EKRAN
Ad
Triton Çıkarım Sunucusu
TANIM
Triton Inference Server, AI çıkarımını kolaylaştıran açık kaynaklı bir çıkarım sunma yazılımıdır. Triton, ekiplerin TensorRT, TensorFlow, PyTorch, ONNX, OpenVINO, Python, RAPIDS FIL ve daha fazlası dahil olmak üzere birden fazla derin öğrenme ve makine öğrenimi çerçevesinden herhangi bir AI modelini dağıtmasına olanak tanır. Triton, NVIDIA GPU'lar, x86 ve ARM CPU veya AWS Inferentia'daki bulut, veri merkezi, uç ve gömülü cihazlarda çıkarımı destekler. Triton, gerçek zamanlı, toplu, topluluklar ve ses/video akışı dahil olmak üzere birçok sorgu türü için optimize edilmiş performans sunar. Özel arka uçlar ve ön/son işlem işlemleri eklemeye izin veren Arka Uç API'si sağlar. Ensembling veya Business Logic Scripting (BLS) kullanarak ardışık düzenleri modelleyin. Topluluk tarafından geliştirilen KServe protokolüne dayalı HTTP/REST ve GRPC çıkarım protokolleri. AC API ve Java API, Triton'un uç ve diğer süreç içi kullanım durumları için doğrudan uygulamanıza bağlanmasına izin verir.
Özellikler
- Birden çok derin öğrenme çerçevesini destekler
- Birden çok makine öğrenimi çerçevesini destekler
- Eşzamanlı model yürütme
- Dinamik gruplama
- Durum bilgisi olan modeller için sıralı gruplama ve örtük durum yönetimi
- Özel arka uçlar ve ön/son işlem işlemleri eklemeye izin veren Arka Uç API'si sağlar
Programlama dili
Python
Kategoriler
Bu, https://sourceforge.net/projects/triton-inference-server.mirror/ adresinden de getirilebilen bir uygulamadır. Ücretsiz İşletim Sistemlerimizden birinden en kolay şekilde çevrimiçi çalıştırılabilmesi için OnWorks'te barındırılmıştır.