KubeAI ດາວໂຫຼດສໍາລັບ Windows

ນີ້ແມ່ນແອັບ Windows ທີ່ມີຊື່ວ່າ KubeAI ເຊິ່ງລຸ້ນຫຼ້າສຸດສາມາດດາວໂຫຼດໄດ້ໃນນາມ helm-chart-kubeai-0.21.0sourcecode.tar.gz. ມັນສາມາດດໍາເນີນການອອນໄລນ໌ຢູ່ໃນ OnWorks ຜູ້ໃຫ້ບໍລິການໂຮດຕິ້ງຟຣີສໍາລັບບ່ອນເຮັດວຽກ.

 
 

ດາວ​ນ​໌​ໂຫລດ​ແລະ​ດໍາ​ເນີນ​ການ​ອອນ​ໄລ​ນ​໌ app ນີ້​ຊື່ KubeAI ກັບ OnWorks ໄດ້​ຟຣີ​.

ປະຕິບັດຕາມຄໍາແນະນໍາເຫຼົ່ານີ້ເພື່ອດໍາເນີນການ app ນີ້:

- 1. ດາວ​ໂຫຼດ​ຄໍາ​ຮ້ອງ​ສະ​ຫມັກ​ນີ້​ໃນ PC ຂອງ​ທ່ານ​.

- 2. ໃສ່ໃນຕົວຈັດການໄຟລ໌ຂອງພວກເຮົາ https://www.onworks.net/myfiles.php?username=XXXXX ດ້ວຍຊື່ຜູ້ໃຊ້ທີ່ທ່ານຕ້ອງການ.

- 3. ອັບໂຫລດແອັບພລິເຄຊັນນີ້ຢູ່ໃນຕົວຈັດການໄຟລ໌ດັ່ງກ່າວ.

- 4. ເລີ່ມ emulator ອອນ ໄລ ນ ໌ OS OnWorks ຈາກ ເວັບ ໄຊ ທ ໌ ນີ້, ແຕ່ ດີກ ວ່າ Windows ອອນ ໄລ ນ ໌ emulator.

- 5. ຈາກ OnWorks Windows OS ທີ່ເຈົ້າຫາກໍ່ເລີ່ມຕົ້ນ, ໄປທີ່ຕົວຈັດການໄຟລ໌ຂອງພວກເຮົາ https://www.onworks.net/myfiles.php?username=XXXXX ດ້ວຍຊື່ຜູ້ໃຊ້ທີ່ທ່ານຕ້ອງການ.

- 6. ດາວນ໌ໂຫລດຄໍາຮ້ອງສະຫມັກແລະຕິດຕັ້ງມັນ.

- 7. ດາວໂຫລດ Wine ຈາກບ່ອນເກັບມ້ຽນຊອບແວການແຈກຢາຍ Linux ຂອງທ່ານ. ເມື່ອ​ຕິດ​ຕັ້ງ​ແລ້ວ​, ທ່ານ​ສາ​ມາດ​ຄລິກ​ສອງ​ຄັ້ງ app ເພື່ອ​ດໍາ​ເນີນ​ການ​ໃຫ້​ເຂົາ​ເຈົ້າ​ກັບ Wine​. ນອກນັ້ນທ່ານຍັງສາມາດລອງ PlayOnLinux, ການໂຕ້ຕອບທີ່ແປກປະຫຼາດໃນໄລຍະ Wine ທີ່ຈະຊ່ວຍໃຫ້ທ່ານຕິດຕັ້ງໂປລແກລມ Windows ແລະເກມທີ່ນິຍົມ.

ເຫຼົ້າແວງເປັນວິທີການແລ່ນຊອບແວ Windows ໃນ Linux, ແຕ່ບໍ່ມີ Windows ທີ່ຕ້ອງການ. ເຫຼົ້າແວງແມ່ນຊັ້ນຄວາມເຂົ້າກັນໄດ້ຂອງ Windows ແຫຼ່ງເປີດທີ່ສາມາດເອີ້ນໃຊ້ໂຄງການ Windows ໂດຍກົງໃນ desktop Linux ໃດກໍໄດ້. ໂດຍພື້ນຖານແລ້ວ, Wine ກໍາລັງພະຍາຍາມປະຕິບັດໃຫມ່ຢ່າງພຽງພໍຂອງ Windows ຕັ້ງແຕ່ເລີ່ມຕົ້ນເພື່ອໃຫ້ມັນສາມາດດໍາເນີນການຄໍາຮ້ອງສະຫມັກ Windows ທັງຫມົດໄດ້ໂດຍບໍ່ຕ້ອງໃຊ້ Windows.

ພາບຫນ້າຈໍ:


KubeAI


DESCRIPTION:

ໄດ້ຮັບການອະນຸມານແລ່ນຢູ່ໃນ Kubernetes: LLMs, ການຝັງ, ການເວົ້າເປັນຂໍ້ຄວາມ. KubeAI ໃຫ້ບໍລິການ HTTP API ທີ່ເຂົ້າກັນໄດ້ກັບ OpenAI. ຜູ້ເບິ່ງແຍງສາມາດກຳນົດຄ່າໂມເດວ ML ໂດຍໃຊ້ຊັບພະຍາກອນແບບກຳນົດເອງ Kubernetes. KubeAI ສາມາດຖືກຄິດວ່າເປັນຕົວປະຕິບັດແບບຈໍາລອງ (ເບິ່ງຮູບແບບຕົວປະຕິບັດການ) ທີ່ຄຸ້ມຄອງເຄື່ອງແມ່ຂ່າຍ vLLM ແລະ Ollama.



ຄຸນ​ລັກ​ສະ​ນະ

  • ການທົດແທນແບບເລື່ອນລົງສໍາລັບ OpenAI ທີ່ມີຄວາມເຂົ້າກັນໄດ້ API
  • ໃຫ້ບໍລິການຮູບແບບ OSS ຊັ້ນນໍາ (LLMs, Whisper, ແລະອື່ນໆ)
  • Multi-platform: CPU-only, GPU, ໄວໆນີ້: TPU
  • ຂະຫນາດຈາກສູນ, ຂະຫນາດອັດຕະໂນມັດໂດຍອີງໃສ່ການໂຫຼດ
  • ການເພິ່ງພາອາໄສສູນ (ບໍ່ຂຶ້ນກັບ Istio, Knative, ແລະອື່ນໆ)
  • ຮວມເອົາ UI ສົນທະນາ (OpenWebUI)
  • ເຮັດວຽກເຊີບເວີແບບ OSS (vLLM, Ollama, FasterWhisper, Infinity)
  • Stream/batch inference ຜ່ານ​ການ​ເຊື່ອມ​ໂຍງ​ຂໍ້​ຄວາມ (Kafka​, PubSub​, ແລະ​ອື່ນໆ​)


ພາສາການຂຽນໂປຣແກຣມ

Go


ປະເພດ

ຮູບແບບພາສາຂະຫນາດໃຫຍ່ (LLM), LLM Inference

ນີ້ແມ່ນແອັບພລິເຄຊັນທີ່ຍັງສາມາດເອົາມາຈາກ https://sourceforge.net/projects/kubeai.mirror/. ມັນໄດ້ຖືກຈັດຢູ່ໃນ OnWorks ເພື່ອໃຫ້ດໍາເນີນການອອນໄລນ໌ດ້ວຍວິທີທີ່ງ່າຍທີ່ສຸດຈາກຫນຶ່ງໃນລະບົບປະຕິບັດງານຟຣີຂອງພວກເຮົາ.



ລ່າສຸດ Linux ແລະ Windows ໂຄງການອອນໄລນ໌


ໝວດໝູ່ເພື່ອດາວໂຫລດຊອບແວ ແລະໂປຣແກຣມສຳລັບ Windows ແລະ Linux