यह TensorFlow Serving नाम का एक Linux ऐप है जिसका नवीनतम संस्करण 2.19.1sourcecode.tar.gz के रूप में डाउनलोड किया जा सकता है। इसे वर्कस्टेशन के लिए मुफ़्त होस्टिंग प्रदाता OnWorks पर ऑनलाइन चलाया जा सकता है।
TensorFlow सर्विंग विद ऑनवर्क्स नाम के इस ऐप को मुफ्त में ऑनलाइन डाउनलोड करें और चलाएं।
इस ऐप को चलाने के लिए इन निर्देशों का पालन करें:
- 1. इस एप्लिकेशन को अपने पीसी में डाउनलोड करें।
- 2. हमारे फ़ाइल प्रबंधक में https://www.onworks.net/myfiles.php?username=XXXXX उस उपयोगकर्ता नाम के साथ दर्ज करें जो आप चाहते हैं।
- 3. इस एप्लिकेशन को ऐसे फाइल मैनेजर में अपलोड करें।
- 4. इस वेबसाइट से ऑनवर्क्स लिनक्स ऑनलाइन या विंडोज ऑनलाइन एमुलेटर या मैकोज़ ऑनलाइन एमुलेटर शुरू करें।
- 5. ऑनवर्क्स लिनक्स ओएस से आपने अभी शुरुआत की है, हमारे फाइल मैनेजर को https://www.onworks.net/myfiles.php?username=XXXXX उस यूजरनेम के साथ जाएं जो आप चाहते हैं।
- 6. एप्लिकेशन डाउनलोड करें, इसे इंस्टॉल करें और इसे चलाएं।
स्क्रीनशॉट
Ad
TensorFlow सर्व करना
वर्णन
टेन्सरफ्लो सर्विंग मशीन लर्निंग मॉडल के लिए एक लचीली, उच्च प्रदर्शन वाली सर्विंग प्रणाली है, जिसे उत्पादन वातावरण के लिए डिज़ाइन किया गया है। यह मशीन लर्निंग के अनुमान पहलू से संबंधित है, प्रशिक्षण के बाद मॉडल लेना और उनके जीवनकाल का प्रबंधन करना, ग्राहकों को उच्च-प्रदर्शन, संदर्भ-गणना वाली लुकअप तालिका के माध्यम से संस्करणित पहुंच प्रदान करना है। TensorFlow सर्विंग TensorFlow मॉडल के साथ आउट-ऑफ-द-बॉक्स एकीकरण प्रदान करता है, लेकिन इसे अन्य प्रकार के मॉडल और डेटा की सेवा के लिए आसानी से बढ़ाया जा सकता है। TensorFlow सर्विंग का उपयोग करने का सबसे आसान और सीधा तरीका डॉकर छवियों के साथ है। हम इस मार्ग की पुरजोर अनुशंसा करते हैं जब तक कि आपकी ऐसी विशिष्ट आवश्यकताएं न हों जिन्हें किसी कंटेनर में चलाकर पूरा नहीं किया जा सके। Tensorflow मॉडल पेश करने के लिए, बस अपने Tensorflow प्रोग्राम से एक SavedModel निर्यात करें। सेव्डमॉडल एक भाषा-तटस्थ, पुनर्प्राप्ति योग्य, भली भांति बंद क्रमांकन प्रारूप है जो उच्च-स्तरीय प्रणालियों और उपकरणों को टेन्सरफ्लो मॉडल का उत्पादन, उपभोग और परिवर्तन करने में सक्षम बनाता है।
विशेषताएं
- एक साथ कई मॉडल, या एक ही मॉडल के कई संस्करण पेश कर सकते हैं
- जीआरपीसी और HTTP अनुमान समापन बिंदु दोनों को उजागर करता है
- किसी भी क्लाइंट कोड को बदले बिना नए मॉडल संस्करणों की तैनाती की अनुमति देता है
- कैनरी नए संस्करणों और ए/बी परीक्षण प्रयोगात्मक मॉडल का समर्थन करता है
- कुशल, कम-ओवरहेड कार्यान्वयन के कारण अनुमान समय में न्यूनतम विलंबता जोड़ता है
- एक शेड्यूलर की सुविधा है जो व्यक्तिगत अनुमान अनुरोधों को कॉन्फ़िगर करने योग्य विलंबता नियंत्रण के साथ GPU पर संयुक्त निष्पादन के लिए बैचों में समूहित करता है
प्रोग्रामिंग भाषा
सी + +
श्रेणियाँ
यह एक एप्लिकेशन है जिसे https://sourceforge.net/projects/tensorflow-serving.mirror/ से भी प्राप्त किया जा सकता है। हमारे निःशुल्क ऑपरेटिव सिस्टमों में से एक से सबसे आसान तरीके से ऑनलाइन चलाने के लिए इसे ऑनवर्क्स में होस्ट किया गया है।