GoGPT Best VPN GoSearch

OnWorks favicon

ດາວໂຫລດ Triton Inference Server ສໍາລັບ Windows

ດາວໂຫຼດ Triton Inference Server Windows app ຟຣີເພື່ອແລ່ນອອນໄລນ໌ win Wine ໃນ Ubuntu ອອນໄລນ໌, Fedora ອອນໄລນ໌ ຫຼື Debian ອອນໄລນ໌

ນີ້ແມ່ນແອັບ Windows ທີ່ມີຊື່ວ່າ Triton Inference Server ເຊິ່ງລຸ້ນຫຼ້າສຸດສາມາດດາວໂຫຼດເປັນ v2.60.0_ubuntu2404.clients.tar.gz. ມັນສາມາດດໍາເນີນການອອນໄລນ໌ຢູ່ໃນຜູ້ໃຫ້ບໍລິການໂຮດຕິ້ງຟຣີ OnWorks ສໍາລັບສະຖານີບ່ອນເຮັດວຽກ.

ດາວ​ນ​໌​ໂຫລດ​ແລະ​ດໍາ​ເນີນ​ການ​ອອນ​ໄລ​ນ​໌ app ນີ້​ມີ​ຊື່ Triton Inference Server ກັບ OnWorks ໄດ້​ຟຣີ​.

ປະຕິບັດຕາມຄໍາແນະນໍາເຫຼົ່ານີ້ເພື່ອດໍາເນີນການ app ນີ້:

- 1. ດາວ​ໂຫຼດ​ຄໍາ​ຮ້ອງ​ສະ​ຫມັກ​ນີ້​ໃນ PC ຂອງ​ທ່ານ​.

- 2. ໃສ່ໃນຕົວຈັດການໄຟລ໌ຂອງພວກເຮົາ https://www.onworks.net/myfiles.php?username=XXXXX ດ້ວຍຊື່ຜູ້ໃຊ້ທີ່ທ່ານຕ້ອງການ.

- 3. ອັບໂຫລດແອັບພລິເຄຊັນນີ້ຢູ່ໃນຕົວຈັດການໄຟລ໌ດັ່ງກ່າວ.

- 4. ເລີ່ມ emulator ອອນ ໄລ ນ ໌ OS OnWorks ຈາກ ເວັບ ໄຊ ທ ໌ ນີ້, ແຕ່ ດີກ ວ່າ Windows ອອນ ໄລ ນ ໌ emulator.

- 5. ຈາກ OnWorks Windows OS ທີ່ເຈົ້າຫາກໍ່ເລີ່ມຕົ້ນ, ໄປທີ່ຕົວຈັດການໄຟລ໌ຂອງພວກເຮົາ https://www.onworks.net/myfiles.php?username=XXXXX ດ້ວຍຊື່ຜູ້ໃຊ້ທີ່ທ່ານຕ້ອງການ.

- 6. ດາວນ໌ໂຫລດຄໍາຮ້ອງສະຫມັກແລະຕິດຕັ້ງມັນ.

- 7. ດາວໂຫລດ Wine ຈາກບ່ອນເກັບມ້ຽນຊອບແວການແຈກຢາຍ Linux ຂອງທ່ານ. ເມື່ອ​ຕິດ​ຕັ້ງ​ແລ້ວ​, ທ່ານ​ສາ​ມາດ​ຄລິກ​ສອງ​ຄັ້ງ app ເພື່ອ​ດໍາ​ເນີນ​ການ​ໃຫ້​ເຂົາ​ເຈົ້າ​ກັບ Wine​. ນອກນັ້ນທ່ານຍັງສາມາດລອງ PlayOnLinux, ການໂຕ້ຕອບທີ່ແປກປະຫຼາດໃນໄລຍະ Wine ທີ່ຈະຊ່ວຍໃຫ້ທ່ານຕິດຕັ້ງໂປລແກລມ Windows ແລະເກມທີ່ນິຍົມ.

ເຫຼົ້າແວງເປັນວິທີການແລ່ນຊອບແວ Windows ໃນ Linux, ແຕ່ບໍ່ມີ Windows ທີ່ຕ້ອງການ. ເຫຼົ້າແວງແມ່ນຊັ້ນຄວາມເຂົ້າກັນໄດ້ຂອງ Windows ແຫຼ່ງເປີດທີ່ສາມາດເອີ້ນໃຊ້ໂຄງການ Windows ໂດຍກົງໃນ desktop Linux ໃດກໍໄດ້. ໂດຍພື້ນຖານແລ້ວ, Wine ກໍາລັງພະຍາຍາມປະຕິບັດໃຫມ່ຢ່າງພຽງພໍຂອງ Windows ຕັ້ງແຕ່ເລີ່ມຕົ້ນເພື່ອໃຫ້ມັນສາມາດດໍາເນີນການຄໍາຮ້ອງສະຫມັກ Windows ທັງຫມົດໄດ້ໂດຍບໍ່ຕ້ອງໃຊ້ Windows.

ໜ້າ ຈໍ

Ad


ເຊີບເວີ Triton Inference


ລາຍລະອຽດ

ເຊີບເວີ Triton Inference ເປັນຊອຟແວທີ່ໃຫ້ບໍລິການ inference ແຫຼ່ງເປີດທີ່ປັບປຸງ AI inferencing. Triton ຊ່ວຍໃຫ້ທີມງານສາມາດນຳໃຊ້ຕົວແບບ AI ໃດໆກໍໄດ້ຈາກການຮຽນຮູ້ແບບເລິກເຊິ່ງ ແລະກອບການເຮັດວຽກຂອງເຄື່ອງຈັກ, ລວມທັງ TensorRT, TensorFlow, PyTorch, ONNX, OpenVINO, Python, RAPIDS FIL, ແລະອື່ນໆ. Triton ຮອງຮັບການອ້າງອີງທົ່ວຄລາວ, ສູນຂໍ້ມູນ, ຂອບ, ແລະອຸປະກອນຝັງຢູ່ໃນ NVIDIA GPUs, x86 ແລະ ARM CPU, ຫຼື AWS Inferentia. Triton ສະຫນອງການປະຕິບັດທີ່ດີທີ່ສຸດສໍາລັບຫຼາຍປະເພດຄໍາຖາມ, ລວມທັງເວລາຈິງ, ຊຸດ, ຊຸດ, ແລະການຖ່າຍທອດສຽງ / ວິດີໂອ. ສະໜອງ Backend API ທີ່ອະນຸຍາດໃຫ້ເພີ່ມ backends ແບບກຳນົດເອງ ແລະການປະຕິບັດກ່ອນ/ຫຼັງການປະມວນຜົນ. ທໍ່ຕົວແບບໂດຍໃຊ້ Ensembling ຫຼື Business Logic Scripting (BLS). HTTP/REST ແລະ GRPC inference protocols ອີງໃສ່ໂປຣໂຕຄໍ KServe ທີ່ພັດທະນາໂດຍຊຸມຊົນ. AC API ແລະ Java API ອະນຸຍາດໃຫ້ Triton ເຊື່ອມຕໍ່ໂດຍກົງເຂົ້າໄປໃນຄໍາຮ້ອງສະຫມັກຂອງທ່ານສໍາລັບຂອບແລະກໍລະນີການນໍາໃຊ້ໃນຂະບວນການອື່ນໆ.



ຄຸນ​ລັກ​ສະ​ນະ

  • ສະຫນັບສະຫນູນກອບການຮຽນຮູ້ເລິກຫຼາຍ
  • ສະຫນັບສະຫນູນກອບການຮຽນຮູ້ເຄື່ອງຈັກຫຼາຍ
  • ການປະຕິບັດຕົວແບບພ້ອມກັນ
  • batch ແບບໄດນາມິກ
  • batch ລໍາດັບແລະການຄຸ້ມຄອງລັດ implicit ສໍາລັບຕົວແບບຂອງລັດ
  • ສະໜອງ Backend API ທີ່ອະນຸຍາດໃຫ້ເພີ່ມ backends ແບບກຳນົດເອງ ແລະການປະຕິບັດການປະມວນຜົນກ່ອນ/ຫຼັງ


ພາສາການຂຽນໂປຣແກຣມ

Python


ປະເພດ

ການຮຽນຮູ້ເຄື່ອງຈັກ, ກອບການຮຽນຮູ້ເລິກເຊິ່ງ, LLM Inference

ນີ້ແມ່ນແອັບພລິເຄຊັນທີ່ຍັງສາມາດເອົາມາຈາກ https://sourceforge.net/projects/triton-inference-server.mirror/. ມັນໄດ້ຖືກຈັດຢູ່ໃນ OnWorks ເພື່ອໃຫ້ດໍາເນີນການອອນໄລນ໌ດ້ວຍວິທີທີ່ງ່າຍທີ່ສຸດຈາກຫນຶ່ງໃນລະບົບປະຕິບັດງານຟຣີຂອງພວກເຮົາ.


ເຊີບເວີ ແລະສະຖານີເຮັດວຽກຟຣີ

ດາວໂຫຼດແອັບ Windows ແລະ Linux

Linux ຄຳ ສັ່ງ

Ad




×
ການ​ໂຄ​ສະ​ນາ
?ຊື້ເຄື່ອງ, ຈອງ, ຫຼືຊື້ທີ່ນີ້ — ບໍ່ມີຄ່າໃຊ້ຈ່າຍ, ຊ່ວຍໃຫ້ການບໍລິການຟຣີ.