Ito ang Linux app na pinangalanang Pruna AI na ang pinakabagong release ay maaaring ma-download bilang Releasev0.2.9sourcecode.tar.gz. Maaari itong patakbuhin online sa libreng hosting provider na OnWorks para sa mga workstation.
I-download at patakbuhin online ang app na ito na pinangalanang Pruna AI sa OnWorks nang libre.
Sundin ang mga tagubiling ito upang patakbuhin ang app na ito:
- 1. Na-download ang application na ito sa iyong PC.
- 2. Ipasok sa aming file manager https://www.onworks.net/myfiles.php?username=XXXXX kasama ang username na gusto mo.
- 3. I-upload ang application na ito sa naturang filemanager.
- 4. Simulan ang OnWorks Linux online o Windows online emulator o MACOS online emulator mula sa website na ito.
- 5. Mula sa OnWorks Linux OS na kasisimula mo pa lang, pumunta sa aming file manager https://www.onworks.net/myfiles.php?username=XXXX gamit ang username na gusto mo.
- 6. I-download ang application, i-install ito at patakbuhin ito.
MGA LALAKI
Ad
Pruna AI
DESCRIPTION
Ang Pruna ay isang open-source, self-hostable AI inference engine na idinisenyo upang tulungan ang mga team na mag-deploy at mamahala ng mga malalaking modelo ng wika (LLM) nang mahusay sa mga pribado o hybrid na imprastraktura. Binuo nang nasa isip ang performance at developer ergonomics, pinapasimple ng Pruna ang mga inference workflow sa pamamagitan ng pagpapagana ng multi-model orchestration, autoscaling, GPU resource allocation, at compatibility sa mga sikat na open-source na modelo. Tamang-tama ito para sa mga kumpanya o team na naghahanap na bawasan ang pag-asa sa mga panlabas na API habang pinapanatili ang bilis, kahusayan sa gastos, at ganap na kontrol sa kanilang data at AI stack. Sa pagtutok sa extensibility at observability, binibigyang kapangyarihan ng Pruna ang mga inhinyero na sukatin ang mga LLM application mula sa prototype hanggang sa produksyon nang secure at mapagkakatiwalaan.
Mga tampok
- Self-host na engine para sa pamamahala ng LLM inference
- Sinusuportahan ang multi-modelo orkestrasyon at pagruruta
- Dynamic na autoscaling para sa pag-optimize ng mapagkukunan
- GPU-aware na pag-iiskedyul at load balancing
- Tugma sa mga open-source na modelo tulad ng LLaMA at Mistral
- HTTP at gRPC API para sa madaling pagsasama
- Built-in na pagmamasid at pagsubaybay sa pagganap
- Handa sa deployment na may suporta sa Docker at Kubernetes
Wika ng Programming
Sawa
Kategorya
Ito ay isang application na maaari ding makuha mula sa https://sourceforge.net/projects/pruna-ai.mirror/. Na-host ito sa OnWorks upang mapatakbo online sa pinakamadaling paraan mula sa isa sa aming mga libreng Operative System.