Amazon Best VPN GoSearch

فاویکون OnWorks

دانلود Triton Inference Server برای ویندوز

دانلود رایگان برنامه Windows Triton Inference Server برای اجرای آنلاین Win Wine در اوبونتو به صورت آنلاین، فدورا آنلاین یا دبیان آنلاین

این یک برنامه ویندوزی به نام Triton Inference Server است که آخرین نسخه آن را می‌توانید با عنوان Release2.59.0 مربوط به NGCcontainer25.06sourcecode.tar.gz دانلود کنید. این برنامه را می‌توان به صورت آنلاین در ارائه دهنده خدمات میزبانی رایگان OnWorks برای ایستگاه‌های کاری اجرا کرد.

این اپلیکیشن با نام Triton Inference Server را با OnWorks به صورت آنلاین دانلود و اجرا کنید.

برای اجرای این برنامه این دستورالعمل ها را دنبال کنید:

- 1. این برنامه را در رایانه شخصی خود دانلود کنید.

- 2. در فایل منیجر ما https://www.onworks.net/myfiles.php?username=XXXXX نام کاربری مورد نظر خود را وارد کنید.

- 3. این برنامه را در چنین فایل منیجر آپلود کنید.

- 4. هر شبیه ساز آنلاین OS OnWorks را از این وب سایت راه اندازی کنید، اما شبیه ساز آنلاین ویندوز بهتر است.

- 5. از OnWorks Windows OS که به تازگی راه اندازی کرده اید، به مدیر فایل ما https://www.onworks.net/myfiles.php?username=XXXXX با نام کاربری که می خواهید بروید.

- 6. برنامه را دانلود و نصب کنید.

- 7. Wine را از مخازن نرم افزار توزیع لینوکس خود دانلود کنید. پس از نصب، می توانید روی برنامه دوبار کلیک کنید تا آنها را با Wine اجرا کنید. همچنین می توانید PlayOnLinux را امتحان کنید، یک رابط کاربری فانتزی بر روی Wine که به شما کمک می کند برنامه ها و بازی های محبوب ویندوز را نصب کنید.

Wine راهی برای اجرای نرم افزار ویندوز بر روی لینوکس است، اما بدون نیاز به ویندوز. Wine یک لایه سازگار با ویندوز منبع باز است که می تواند برنامه های ویندوز را مستقیماً بر روی هر دسکتاپ لینوکس اجرا کند. اساساً، Wine در تلاش است تا به اندازه کافی از ویندوز را از ابتدا مجدداً پیاده سازی کند تا بتواند همه آن برنامه های ویندوز را بدون نیاز به ویندوز اجرا کند.

عکس ها

Ad


سرور استنتاج تریتون


شرح

Triton Inference Server یک نرم افزار استنتاج منبع باز است که استنتاج AI را ساده می کند. تریتون تیم‌ها را قادر می‌سازد تا هر مدل هوش مصنوعی را از چندین چارچوب یادگیری عمیق و یادگیری ماشین، از جمله TensorRT، TensorFlow، PyTorch، ONNX، OpenVINO، Python، RAPIDS FIL و غیره به کار گیرند. تریتون از استنتاج در سراسر ابر، مرکز داده، لبه و دستگاه‌های تعبیه‌شده در پردازنده‌های گرافیکی NVIDIA، x86 و ARM CPU یا AWS Inferentia پشتیبانی می‌کند. تریتون عملکرد بهینه‌سازی شده‌ای را برای بسیاری از انواع پرس و جو ارائه می‌کند، از جمله زمان واقعی، دسته‌ای، گروه‌ها و پخش صوتی/تصویری. Backend API را ارائه می دهد که امکان اضافه کردن backend های سفارشی و عملیات پیش/پس از پردازش را فراهم می کند. مدل‌سازی خطوط لوله با استفاده از Ensembling یا Business Logic Scripting (BLS). پروتکل های استنتاج HTTP/REST و GRPC بر اساس پروتکل KServe توسعه یافته توسط جامعه. AC API و Java API به Triton این امکان را می‌دهند که مستقیماً به برنامه شما برای edge و سایر موارد استفاده در فرآیند پیوند دهد.



امکانات

  • از چندین چارچوب یادگیری عمیق پشتیبانی می کند
  • از چندین چارچوب یادگیری ماشین پشتیبانی می کند
  • اجرای همزمان مدل
  • دسته بندی پویا
  • دسته بندی توالی و مدیریت حالت ضمنی برای مدل های حالت دار
  • API Backend را ارائه می دهد که اجازه می دهد تا باطن های سفارشی و عملیات پردازش پیش/پس را اضافه کنید


زبان برنامه نویسی

پــایتــون


دسته بندی ها

یادگیری ماشین، چارچوب‌های یادگیری عمیق، استنتاج LLM

این برنامه ای است که می تواند از https://sourceforge.net/projects/triton-inference-server.mirror/ نیز دریافت شود. در OnWorks میزبانی شده است تا به آسانی از طریق یکی از سیستم عامل های رایگان ما به صورت آنلاین اجرا شود.


سرورها و ایستگاه های کاری رایگان

دانلود برنامه های ویندوز و لینوکس

دستورات لینوکس

Ad




×
تبلیغات
❤️اینجا خرید کنید، رزرو کنید یا بخرید - رایگان است، به رایگان ماندن خدمات کمک می‌کند.