Aceasta este aplicația Linux numită llama2-webui a cărei ultimă versiune poate fi descărcată ca v0.1.14Release.zip. Poate fi rulat online în furnizorul gratuit de găzduire OnWorks pentru stații de lucru.
Descărcați și rulați online această aplicație numită llama2-webui cu OnWorks gratuit.
Urmați aceste instrucțiuni pentru a rula această aplicație:
- 1. Ați descărcat această aplicație pe computer.
- 2. Introduceți în managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator pe care îl doriți.
- 3. Încărcați această aplicație într-un astfel de manager de fișiere.
- 4. Porniți emulatorul online OnWorks Linux sau Windows online sau emulatorul online MACOS de pe acest site web.
- 5. Din sistemul de operare OnWorks Linux pe care tocmai l-ați pornit, accesați managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator dorit.
- 6. Descărcați aplicația, instalați-o și rulați-o.
SCREENSHOTS
Ad
llama2-webui
DESCRIERE
Rularea Llama 2 cu interfață web gradio pe GPU sau CPU de oriunde (Linux/Windows/Mac).
DESCRIERE
- Sprijină toate modelele Llama 2 (7B, 13B, 70B, GPTQ, GGML) cu modul pe 8 biți, 4 biți
- Utilizați llama2-wrapper ca backend local llama2 pentru agenții/aplicații generative; exemplu colab
- Rulați API-ul compatibil OpenAI pe modelele Llama2
- Modele suport: Llama-2-7b/13b/70b, toate Llama-2-GPTQ, toate Llama-2-GGML
- Backend-uri de model compatibile: transformatoare, biți și octeți (inferență de 8 biți), AutoGPTQ (inferență de 4 biți), llama.cpp
- Demo: rulați Llama2 pe MacBook Air; Rulați Llama2 pe GPU Colab T4 gratuit
Limbaj de programare
Piton
Categorii
Aceasta este o aplicație care poate fi preluată și de la https://sourceforge.net/projects/llama2-webui.mirror/. Acesta a fost găzduit în OnWorks pentru a fi rulat online în cel mai simplu mod de la unul dintre sistemele noastre operative gratuite.