Bu, son sürümü v2Release.zip olarak indirilebilen llama0.1.14-webui adlı Linux uygulamasıdır. İş istasyonları için ücretsiz barındırma sağlayıcısı OnWorks'te çevrimiçi olarak çalıştırılabilir.
Llama2-webui adlı bu uygulamayı OnWorks ile ücretsiz olarak indirin ve çevrimiçi çalıştırın.
Bu uygulamayı çalıştırmak için şu talimatları izleyin:
- 1. Bu uygulamayı PC'nize indirdiniz.
- 2. Dosya yöneticimize https://www.onworks.net/myfiles.php?username=XXXXX istediğiniz kullanıcı adını girin.
- 3. Bu uygulamayı böyle bir dosya yöneticisine yükleyin.
- 4. Bu web sitesinden OnWorks Linux çevrimiçi veya Windows çevrimiçi öykünücüsünü veya MACOS çevrimiçi öykünücüsünü başlatın.
- 5. Yeni başladığınız OnWorks Linux işletim sisteminden, istediğiniz kullanıcı adıyla https://www.onworks.net/myfiles.php?username=XXXXX dosya yöneticimize gidin.
- 6. Uygulamayı indirin, kurun ve çalıştırın.
EKRAN
Ad
lama2-webui
TANIM
Llama 2'yi GPU veya CPU üzerinde gradio web kullanıcı arayüzü ile herhangi bir yerden (Linux/Windows/Mac) çalıştırma.
Özellikler
- 2 bit, 7 bit moduyla tüm Llama 13 modellerini (70B, 8B, 4B, GPTQ, GGML) destekleme
- Üretken Aracılar/Uygulamalar için yerel lama2 arka ucunuz olarak llama2-wrapper'ı kullanın; ortak çalışma örneği
- Llama2 modellerinde OpenAI Uyumlu API'yi çalıştırın
- Desteklenen modeller: Llama-2-7b/13b/70b, tümü Llama-2-GPTQ, tümü Llama-2-GGML
- Desteklenen model arka uçları: transformatörler, bitsandbytes(8-bit çıkarım), AutoGPTQ(4-bit çıkarım), llama.cpp
- Demolar: Llama2'yi MacBook Air'de çalıştırın; Llama2'yi ücretsiz Colab T4 GPU'da çalıştırın
Programlama dili
Python
Kategoriler
Bu, https://sourceforge.net/projects/llama2-webui.mirror/ adresinden de alınabilecek bir uygulamadır. Ücretsiz İşletim Sistemlerimizden birinden en kolay şekilde çevrimiçi çalıştırılabilmesi için OnWorks'te barındırılmıştır.