Ito ang Windows app na pinangalanang LocalAI na ang pinakabagong release ay maaaring ma-download bilang v1.30.0.zip. Maaari itong patakbuhin online sa libreng hosting provider na OnWorks para sa mga workstation.
I-download at patakbuhin online ang app na ito na pinangalanang LocalAI na may OnWorks nang libre.
Sundin ang mga tagubiling ito upang patakbuhin ang app na ito:
- 1. Na-download ang application na ito sa iyong PC.
- 2. Ipasok sa aming file manager https://www.onworks.net/myfiles.php?username=XXXXX kasama ang username na gusto mo.
- 3. I-upload ang application na ito sa naturang filemanager.
- 4. Magsimula ng anumang OS OnWorks online emulator mula sa website na ito, ngunit mas mahusay na Windows online emulator.
- 5. Mula sa OnWorks Windows OS na kasisimula mo pa lang, pumunta sa aming file manager https://www.onworks.net/myfiles.php?username=XXXX gamit ang username na gusto mo.
- 6. I-download ang application at i-install ito.
- 7. I-download ang Wine mula sa iyong mga Linux distributions software repository. Kapag na-install na, maaari mong i-double click ang app upang patakbuhin ang mga ito gamit ang Wine. Maaari mo ring subukan ang PlayOnLinux, isang magarbong interface sa ibabaw ng Wine na tutulong sa iyong mag-install ng mga sikat na programa at laro sa Windows.
Ang alak ay isang paraan upang patakbuhin ang software ng Windows sa Linux, ngunit walang kinakailangang Windows. Ang alak ay isang open-source na layer ng compatibility ng Windows na maaaring direktang magpatakbo ng mga program sa Windows sa anumang desktop ng Linux. Sa totoo lang, sinusubukan ng Wine na muling ipatupad ang sapat na Windows mula sa simula upang mapatakbo nito ang lahat ng mga Windows application na iyon nang hindi talaga nangangailangan ng Windows.
MGA LALAKI
Ad
LocalAI
DESCRIPTION
Self-host, community-driven, lokal na OpenAI compatible na API. Drop-in na kapalit para sa OpenAI na tumatakbo sa mga LLM sa consumer-grade hardware. Libreng Open Source OpenAI na alternatibo. Walang kinakailangang GPU. Gumagamit ng ggml, GPTQ, onnx, TF compatible models: llama, gpt4all, rwkv, whisper, vicuna, koala, gpt4all-j, cerebras, falcon, dolly, starcoder, at marami pang iba. Ang LocalAI ay isang drop-in na kapalit na REST API na tugma sa mga detalye ng OpenAI API para sa lokal na inferencing. Binibigyang-daan ka nitong magpatakbo ng mga LLM (at hindi lamang) sa lokal o on-prem gamit ang consumer-grade hardware, na sumusuporta sa maraming modelong pamilya na tugma sa ggml na format. Hindi nangangailangan ng GPU.
Mga tampok
- Lokal, OpenAI drop-in na alternatibong REST API
- WALANG GPU kinakailangan
- Sinusuportahan ang maramihang mga modelo
- Kapag na-load sa unang pagkakataon, pinapanatili nitong naka-load ang mga modelo sa memorya para sa mas mabilis na inference
- Hindi nag-shell-out, ngunit gumagamit ng C++ binding para sa mas mabilis na inference at mas mahusay na performance
- Pagmamay-ari mo ang iyong data
Wika ng Programming
Go
Kategorya
Ito ay isang application na maaari ding kunin mula sa https://sourceforge.net/projects/localai.mirror/. Na-host ito sa OnWorks upang mapatakbo online sa pinakamadaling paraan mula sa isa sa aming mga libreng Operative System.