Ito ang Linux app na pinangalanang llama2-webui na ang pinakabagong release ay maaaring ma-download bilang v0.1.14Release.zip. Maaari itong patakbuhin online sa libreng hosting provider na OnWorks para sa mga workstation.
I-download at patakbuhin online ang app na ito na pinangalanang llama2-webui gamit ang OnWorks nang libre.
Sundin ang mga tagubiling ito upang patakbuhin ang app na ito:
- 1. Na-download ang application na ito sa iyong PC.
- 2. Ipasok sa aming file manager https://www.onworks.net/myfiles.php?username=XXXXX kasama ang username na gusto mo.
- 3. I-upload ang application na ito sa naturang filemanager.
- 4. Simulan ang OnWorks Linux online o Windows online emulator o MACOS online emulator mula sa website na ito.
- 5. Mula sa OnWorks Linux OS na kasisimula mo pa lang, pumunta sa aming file manager https://www.onworks.net/myfiles.php?username=XXXX gamit ang username na gusto mo.
- 6. I-download ang application, i-install ito at patakbuhin ito.
MGA LALAKI
Ad
llama2-webui
DESCRIPTION
Pagpapatakbo ng Llama 2 na may gradio web UI sa GPU o CPU mula sa kahit saan (Linux/Windows/Mac).
Mga tampok
- Sinusuportahan ang lahat ng modelo ng Llama 2 (7B, 13B, 70B, GPTQ, GGML) na may 8-bit, 4-bit na mode
- Gamitin ang llama2-wrapper bilang iyong lokal na llama2 backend para sa Generative Agents/Apps; halimbawa ng colab
- Patakbuhin ang OpenAI Compatible API sa mga modelong Llama2
- Mga sumusuportang modelo: Llama-2-7b/13b/70b, lahat ng Llama-2-GPTQ, lahat ng Llama-2-GGML
- Mga sumusuporta sa mga backend ng modelo: mga tranformer, bitsandbytes(8-bit inference), AutoGPTQ(4-bit inference), llama.cpp
- Mga Demo: Patakbuhin ang Llama2 sa MacBook Air; Patakbuhin ang Llama2 sa libreng Colab T4 GPU
Wika ng Programming
Sawa
Kategorya
Ito ay isang application na maaari ding kunin mula sa https://sourceforge.net/projects/llama2-webui.mirror/. Na-host ito sa OnWorks upang mapatakbo online sa pinakamadaling paraan mula sa isa sa aming mga libreng Operative System.