Linux के लिए llama2.c डाउनलोड करें

यह llama2.c नाम का एक लिनक्स ऐप है जिसका नवीनतम संस्करण llama2.csourcecode.tar.gz के रूप में डाउनलोड किया जा सकता है। इसे वर्कस्टेशन के लिए मुफ़्त होस्टिंग प्रदाता OnWorks पर ऑनलाइन चलाया जा सकता है।

 
 

OnWorks के साथ llama2.c नामक इस ऐप को मुफ्त में डाउनलोड करें और ऑनलाइन चलाएं।

इस ऐप को चलाने के लिए इन निर्देशों का पालन करें:

- 1. इस एप्लिकेशन को अपने पीसी में डाउनलोड करें।

- 2. हमारे फ़ाइल प्रबंधक में https://www.onworks.net/myfiles.php?username=XXXXX उस उपयोगकर्ता नाम के साथ दर्ज करें जो आप चाहते हैं।

- 3. इस एप्लिकेशन को ऐसे फाइल मैनेजर में अपलोड करें।

- 4. इस वेबसाइट से ऑनवर्क्स लिनक्स ऑनलाइन या विंडोज ऑनलाइन एमुलेटर या मैकोज़ ऑनलाइन एमुलेटर शुरू करें।

- 5. ऑनवर्क्स लिनक्स ओएस से आपने अभी शुरुआत की है, हमारे फाइल मैनेजर को https://www.onworks.net/myfiles.php?username=XXXXX उस यूजरनेम के साथ जाएं जो आप चाहते हैं।

- 6. एप्लिकेशन डाउनलोड करें, इसे इंस्टॉल करें और इसे चलाएं।

स्क्रीनशॉट:


लामा2.सी


विवरण:

llama2.c, Llama 2 भाषा मॉडल आर्किटेक्चर का एक न्यूनतम कार्यान्वयन है जिसे पूरी तरह से शुद्ध C में चलाने के लिए डिज़ाइन किया गया है। Andrej Karpathy द्वारा निर्मित, यह परियोजना बाहरी निर्भरताओं के बिना छोटे Llama 2 मॉडल पर अनुमान लगाने के लिए एक शैक्षिक और हल्का ढांचा प्रदान करती है। यह एक पूर्ण प्रशिक्षण और अनुमान पाइपलाइन प्रदान करता है: मॉडल को PyTorch में प्रशिक्षित किया जा सकता है और बाद में एक संक्षिप्त 700-लाइन C प्रोग्राम (run.c) का उपयोग करके निष्पादित किया जा सकता है। हालाँकि यह तकनीकी रूप से Meta के आधिकारिक Llama 2 मॉडल को लोड कर सकता है, वर्तमान समर्थन fp32 परिशुद्धता तक सीमित है, जिसका अर्थ है कि व्यावहारिक उपयोग लगभग 7B पैरामीटर तक के मॉडल पर सीमित है। llama2.c का लक्ष्य यह प्रदर्शित करना है कि कैसे एक संक्षिप्त और पारदर्शी कार्यान्वयन सरलता, स्पष्टता और पहुँच पर ज़ोर देते हुए छोटे मॉडल के साथ भी सार्थक अनुमान लगा सकता है।



विशेषताएं

  • प्रशिक्षण और अनुमान दोनों के लिए पूर्ण लामा 2 आर्किटेक्चर को कार्यान्वित करता है
  • एक कॉम्पैक्ट, 700-लाइन सी-आधारित अनुमान इंजन (run.c) प्रदान करता है
  • PyTorch में प्रशिक्षण और C में सीधे मॉडल चलाने की अनुमति देता है
  • छोटे, शैक्षिक-स्तरीय LLM के लिए fp32 मॉडल परिशुद्धता का समर्थन करता है
  • आसान अध्ययन और संशोधन के लिए एक स्वच्छ, निर्भरता-मुक्त कार्यान्वयन प्रदान करता है
  • llama.cpp से प्रेरित लेकिन सरलता और अतिसूक्ष्मवाद के लिए डिज़ाइन किया गया


प्रोग्रामिंग भाषा

सी, पायथन


श्रेणियाँ

बड़े भाषा मॉडल (एलएलएम)

यह एक ऐसा एप्लिकेशन है जिसे https://sourceforge.net/projects/llama2-c.mirror/ से भी प्राप्त किया जा सकता है। इसे हमारे किसी भी निःशुल्क ऑपरेटिव सिस्टम से सबसे आसान तरीके से ऑनलाइन चलाने के लिए OnWorks में होस्ट किया गया है।



नवीनतम Linux और Windows ऑनलाइन प्रोग्राम


विंडोज और लिनक्स के लिए सॉफ्टवेयर और प्रोग्राम डाउनलोड करने के लिए श्रेणियाँ