यह Alpaca.cpp नाम का विंडोज ऐप है जिसकी नवीनतम रिलीज़ को 9116ae9.zip के रूप में डाउनलोड किया जा सकता है। इसे वर्कस्टेशन के लिए मुफ्त होस्टिंग प्रदाता ऑनवर्क्स में ऑनलाइन चलाया जा सकता है।
Alpaca.cpp नाम के इस ऐप को OnWorks के साथ मुफ्त में डाउनलोड करें और चलाएं।
इस ऐप को चलाने के लिए इन निर्देशों का पालन करें:
- 1. इस एप्लिकेशन को अपने पीसी में डाउनलोड करें।
- 2. हमारे फ़ाइल प्रबंधक में https://www.onworks.net/myfiles.php?username=XXXXX उस उपयोगकर्ता नाम के साथ दर्ज करें जो आप चाहते हैं।
- 3. इस एप्लिकेशन को ऐसे फाइल मैनेजर में अपलोड करें।
- 4. इस वेबसाइट से कोई भी ओएस ऑनवर्क्स ऑनलाइन एमुलेटर शुरू करें, लेकिन बेहतर विंडोज ऑनलाइन एमुलेटर।
- 5. ऑनवर्क्स विंडोज ओएस से आपने अभी शुरुआत की है, हमारे फाइल मैनेजर को https://www.onworks.net/myfiles.php?username=XXXXX उस यूजरनेम के साथ जाएं जो आप चाहते हैं।
- 6. एप्लिकेशन डाउनलोड करें और इसे इंस्टॉल करें।
- 7. अपने Linux वितरण सॉफ़्टवेयर रिपॉजिटरी से वाइन डाउनलोड करें। एक बार इंस्टॉल हो जाने पर, आप ऐप को वाइन के साथ चलाने के लिए डबल-क्लिक कर सकते हैं। आप PlayOnLinux को भी आज़मा सकते हैं, जो वाइन पर एक फैंसी इंटरफ़ेस है जो आपको लोकप्रिय विंडोज़ प्रोग्राम और गेम इंस्टॉल करने में मदद करेगा।
वाइन लिनक्स पर विंडोज सॉफ्टवेयर चलाने का एक तरीका है, लेकिन विंडोज की आवश्यकता नहीं है। वाइन एक ओपन-सोर्स विंडोज संगतता परत है जो किसी भी लिनक्स डेस्कटॉप पर सीधे विंडोज प्रोग्राम चला सकती है। अनिवार्य रूप से, वाइन खरोंच से पर्याप्त विंडोज़ को फिर से लागू करने की कोशिश कर रहा है ताकि वह उन सभी विंडोज़ अनुप्रयोगों को वास्तव में विंडोज़ की आवश्यकता के बिना चला सके।
स्क्रीनशॉट
Ad
अल्पाका.सीपीपी
वर्णन
अपने डिवाइस पर स्थानीय स्तर पर तेजी से चैटजीपीटी जैसा मॉडल चलाएं। यह LLaMA फाउंडेशन मॉडल को स्टैनफोर्ड अल्पाका के ओपन रिप्रोडक्शन के साथ जोड़ती है, निर्देशों का पालन करने के लिए बेस मॉडल की फाइन-ट्यूनिंग (चैटजीपीटी को प्रशिक्षित करने के लिए उपयोग किए जाने वाले RLHF के समान) और चैट इंटरफ़ेस जोड़ने के लिए llama.cpp में संशोधनों का एक सेट। नवीनतम रिलीज़ से अपने ऑपरेटिंग सिस्टम के अनुरूप ज़िप फ़ाइल डाउनलोड करें। वज़न अल्पाका-लोरा से प्रकाशित फ़ाइन-ट्यून्स पर आधारित होते हैं, जिन्हें एक संशोधित स्क्रिप्ट के साथ एक PyTorch चेकपॉइंट में वापस परिवर्तित किया जाता है और फिर llama.cpp के साथ नियमित तरीके से परिमाणित किया जाता है।
विशेषताएं
- अपने डिवाइस पर स्थानीय स्तर पर तेजी से चैटजीपीटी जैसा मॉडल चलाएं
- यदि आपके पास 10GB से अधिक RAM है, तो आप उच्च गुणवत्ता वाले 13B मॉडल का उपयोग कर सकते हैं
- LLaMA फाउंडेशन मॉडल को स्टैनफोर्ड अल्पाका के खुले पुनरुत्पादन के साथ जोड़ता है
- वज़न अल्पाका-लोरा से प्रकाशित फ़ाइन-ट्यून्स पर आधारित हैं,
- आप अन्य लॉन्च विकल्प जोड़ सकते हैं
- अब आप टर्मिनल में एआई को टाइप कर सकते हैं और यह उत्तर देगा
प्रोग्रामिंग भाषा
सी ++, सी
कैटिगरीज
यह एक ऐसा एप्लिकेशन है जिसे https://sourceforge.net/projects/alpaca-cpp.mirror/ से भी प्राप्त किया जा सकता है। इसे हमारे निःशुल्क ऑपरेटिव सिस्टम में से किसी एक से आसान तरीके से ऑनलाइन चलाने के लिए ऑनवर्क्स में होस्ट किया गया है।