लिनक्स के लिए llama2-वेबुई डाउनलोड

यह llama2-webui नाम का Linux ऐप है जिसकी नवीनतम रिलीज़ को v0.1.14Release.zip के रूप में डाउनलोड किया जा सकता है। इसे वर्कस्टेशन के लिए मुफ्त होस्टिंग प्रदाता ऑनवर्क्स में ऑनलाइन चलाया जा सकता है।

 
 

llama2-webui नाम के इस ऐप को OnWorks के साथ मुफ्त में ऑनलाइन डाउनलोड करें और चलाएं।

इस ऐप को चलाने के लिए इन निर्देशों का पालन करें:

- 1. इस एप्लिकेशन को अपने पीसी में डाउनलोड करें।

- 2. हमारे फ़ाइल प्रबंधक में https://www.onworks.net/myfiles.php?username=XXXXX उस उपयोगकर्ता नाम के साथ दर्ज करें जो आप चाहते हैं।

- 3. इस एप्लिकेशन को ऐसे फाइल मैनेजर में अपलोड करें।

- 4. इस वेबसाइट से ऑनवर्क्स लिनक्स ऑनलाइन या विंडोज ऑनलाइन एमुलेटर या मैकोज़ ऑनलाइन एमुलेटर शुरू करें।

- 5. ऑनवर्क्स लिनक्स ओएस से आपने अभी शुरुआत की है, हमारे फाइल मैनेजर को https://www.onworks.net/myfiles.php?username=XXXXX उस यूजरनेम के साथ जाएं जो आप चाहते हैं।

- 6. एप्लिकेशन डाउनलोड करें, इसे इंस्टॉल करें और इसे चलाएं।

स्क्रीनशॉट:


llama2-webui


विवरण:

कहीं से भी (लिनक्स/विंडोज़/मैक) जीपीयू या सीपीयू पर ग्रेडियो वेब यूआई के साथ लामा 2 चलाना।



विशेषताएं

  • 2-बिट, 7-बिट मोड के साथ सभी लामा 13 मॉडल (70बी, 8बी, 4बी, जीपीटीक्यू, जीजीएमएल) का समर्थन
  • जेनरेटिव एजेंटों/ऐप्स के लिए अपने स्थानीय llama2 बैकएंड के रूप में llama2-रैपर का उपयोग करें; कोलाब उदाहरण
  • Llama2 मॉडल पर OpenAI संगत API चलाएँ
  • सहायक मॉडल: लामा-2-7बी/13बी/70बी, सभी लामा-2-जीपीटीक्यू, सभी लामा-2-जीजीएमएल
  • सहायक मॉडल बैकएंड: ट्रांसफॉर्मर, बिट्सैंडबाइट्स (8-बिट अनुमान), ऑटोजीपीटीक्यू (4-बिट अनुमान), llama.cpp
  • डेमो: मैकबुक एयर पर Llama2 चलाएँ; निःशुल्क Colab T2 GPU पर Llama4 चलाएँ


प्रोग्रामिंग भाषा

अजगर


श्रेणियाँ

बड़े भाषा मॉडल (एलएलएम)

यह एक एप्लिकेशन है जिसे https://sourceforge.net/projects/llama2-webui.mirror/ से भी प्राप्त किया जा सकता है। हमारे निःशुल्क ऑपरेटिव सिस्टमों में से एक से सबसे आसान तरीके से ऑनलाइन चलाने के लिए इसे ऑनवर्क्स में होस्ट किया गया है।



नवीनतम Linux और Windows ऑनलाइन प्रोग्राम


विंडोज और लिनक्स के लिए सॉफ्टवेयर और प्रोग्राम डाउनलोड करने के लिए श्रेणियाँ