Amazon Best VPN GoSearch

OnWorks فافيكون

تنزيل LazyLLM لنظام Windows

قم بتنزيل تطبيق LazyLLM Windows مجانًا لتشغيل Win Wine عبر الإنترنت في Ubuntu عبر الإنترنت أو Fedora عبر الإنترنت أو Debian عبر الإنترنت

هذا تطبيق ويندوز يُدعى LazyLLM، ويمكن تنزيل أحدث إصدار منه باسم lazyllm-0.6.1.tar.gz. ويمكن تشغيله عبر الإنترنت من خلال موفر الاستضافة المجاني OnWorks لمحطات العمل.

قم بتنزيل وتشغيل هذا التطبيق المسمى LazyLLM مع OnWorks مجانًا عبر الإنترنت.

اتبع هذه التعليمات لتشغيل هذا التطبيق:

- 1. قم بتنزيل هذا التطبيق على جهاز الكمبيوتر الخاص بك.

- 2. أدخل في مدير الملفات الخاص بنا https://www.onworks.net/myfiles.php؟username=XXXXX باسم المستخدم الذي تريده.

- 3. تحميل هذا التطبيق في هذا الملف.

- 4. ابدأ تشغيل أي محاكي لنظام التشغيل OnWorks عبر الإنترنت من موقع الويب هذا ، ولكن أفضل محاكي Windows عبر الإنترنت.

- 5. من نظام التشغيل OnWorks Windows الذي بدأته للتو ، انتقل إلى مدير الملفات الخاص بنا https://www.onworks.net/myfiles.php؟username=XXXXX مع اسم المستخدم الذي تريده.

- 6. قم بتنزيل التطبيق وتثبيته.

- 7. قم بتنزيل Wine من مستودعات برامج توزيعات Linux الخاصة بك. بمجرد التثبيت ، يمكنك النقر نقرًا مزدوجًا فوق التطبيق لتشغيله باستخدام Wine. يمكنك أيضًا تجربة PlayOnLinux ، وهي واجهة رائعة على Wine والتي ستساعدك على تثبيت برامج وألعاب Windows الشائعة.

يعد Wine طريقة لتشغيل برامج Windows على نظام Linux ، ولكن بدون الحاجة إلى Windows. Wine عبارة عن طبقة توافق Windows مفتوحة المصدر يمكنها تشغيل برامج Windows مباشرة على أي سطح مكتب Linux. بشكل أساسي ، يحاول Wine إعادة تنفيذ ما يكفي من Windows من البداية حتى يتمكن من تشغيل جميع تطبيقات Windows دون الحاجة إلى Windows بالفعل.

SCREENSHOTS

Ad


ليزي إل إل إم


الوصف

LazyLLM هو خادم LLM مُحسّن وخفيف الوزن، مُصمم لسهولة وسرعة نشر نماذج اللغات الكبيرة. وهو متوافق تمامًا مع مواصفات واجهة برمجة تطبيقات OpenAI، مما يُمكّن المطورين من دمج نماذجهم الخاصة في التطبيقات التي تعتمد عادةً على نقاط نهاية OpenAI. يُركز LazyLLM على تقليل استهلاك الموارد وسرعة الاستدلال، مع دعم نماذج متعددة.



شرح المميزات:

  • متوافق تمامًا مع واجهة برمجة التطبيقات OpenAI للتكامل السلس
  • خادم خفيف الوزن مُحسَّن للاستخدام المنخفض للموارد
  • يدعم العديد من واجهات LLM الخلفية بما في ذلك LLaMA و Mistral
  • مُصمم للاستدلال السريع والنشر بزمن انتقال منخفض
  • سهل النشر والاستضافة الذاتية على الأجهزة المحلية أو السحابة
  • نهج API أولاً لاستبدال النموذج بسرعة وتوسيع نطاقه


لغة البرمجة

Python


التصنيفات

الذكاء الاصطناعي، ماجستير في الاستدلال

هذا تطبيق يُمكن تنزيله أيضًا من https://sourceforge.net/projects/lazyllm.mirror/. وقد استُضيف في OnWorks لتشغيله عبر الإنترنت بسهولة من أحد أنظمتنا التشغيلية المجانية.


خوادم ومحطات عمل مجانية

قم بتنزيل تطبيقات Windows و Linux

أوامر لينكس

Ad




×
الإعلانات
❤️تسوق أو احجز أو اشترِ هنا - بدون تكلفة، مما يساعد على إبقاء الخدمات مجانية.