นี่คือแอป Linux ชื่อ llama2-webui ซึ่งสามารถดาวน์โหลดรุ่นล่าสุดเป็น v0.1.14Release.zip สามารถทำงานออนไลน์ได้ใน OnWorks ผู้ให้บริการโฮสติ้งฟรีสำหรับเวิร์กสเตชัน
ดาวน์โหลดและเรียกใช้แอปออนไลน์ชื่อ llama2-webui พร้อม OnWorks ฟรี
ทำตามคำแนะนำเหล่านี้เพื่อเรียกใช้แอปนี้:
- 1. ดาวน์โหลดแอปพลิเคชั่นนี้ในพีซีของคุณ
- 2. เข้าไปที่ file manager https://www.onworks.net/myfiles.php?username=XXXXX ด้วยชื่อผู้ใช้ที่คุณต้องการ
- 3. อัปโหลดแอปพลิเคชันนี้ในตัวจัดการไฟล์ดังกล่าว
- 4. เริ่มโปรแกรมจำลองออนไลน์ของ OnWorks Linux หรือ Windows ออนไลน์ หรือโปรแกรมจำลองออนไลน์ MACOS จากเว็บไซต์นี้
- 5. จาก OnWorks Linux OS คุณเพิ่งเริ่มต้น ไปที่ตัวจัดการไฟล์ของเรา https://www.onworks.net/myfiles.php?username=XXXXX พร้อมชื่อผู้ใช้ที่คุณต้องการ
- 6. ดาวน์โหลดแอปพลิเคชั่น ติดตั้ง และเรียกใช้
ภาพหน้าจอ
Ad
llama2-webui
DESCRIPTION
ใช้งาน Llama 2 ด้วย gradio web UI บน GPU หรือ CPU จากทุกที่ (Linux/Windows/Mac)
คุณสมบัติ
- รองรับ Llama 2 ทุกรุ่น (7B, 13B, 70B, GPTQ, GGML) ด้วยโหมด 8 บิต, 4 บิต
- ใช้ llama2-wrapper เป็นแบ็กเอนด์ llama2 ในเครื่องของคุณสำหรับ Generative Agents/Apps ตัวอย่างโคแล็บ
- เรียกใช้ OpenAI Compatible API บนรุ่น Llama2
- รุ่นที่รองรับ: Llama-2-7b/13b/70b, Llama-2-GPTQ ทั้งหมด, Llama-2-GGML ทั้งหมด
- แบ็กเอนด์โมเดลที่รองรับ: ทรานฟอร์เมอร์, บิตแซนด์ไบต์ (การอนุมาน 8 บิต), AutoGPTQ (การอนุมาน 4 บิต), llama.cpp
- การสาธิต: เรียกใช้ Llama2 บน MacBook Air; เรียกใช้ Llama2 บน Colab T4 GPU ฟรี
ภาษาโปรแกรม
หลาม
หมวดหมู่
นี่คือแอปพลิเคชันที่สามารถดึงมาจาก https://sourceforge.net/projects/llama2-webui.mirror/ มีการโฮสต์ไว้ใน OnWorks เพื่อใช้งานออนไลน์ด้วยวิธีที่ง่ายที่สุดจากหนึ่งในระบบปฏิบัติการฟรีของเรา