دانلود LocalAI برای ویندوز

این برنامه ویندوزی LocalAI نام دارد که آخرین نسخه آن را می‌توانید با فرمت v3.5.0sourcecode.zip دانلود کنید. می‌توانید آن را به صورت آنلاین در ارائه دهنده خدمات میزبانی وب رایگان OnWorks برای ایستگاه‌های کاری اجرا کنید.

 
 

این برنامه با نام LocalAI را با OnWorks به صورت آنلاین دانلود و اجرا کنید.

برای اجرای این برنامه این دستورالعمل ها را دنبال کنید:

- 1. این برنامه را در رایانه شخصی خود دانلود کنید.

- 2. در فایل منیجر ما https://www.onworks.net/myfiles.php?username=XXXXX نام کاربری مورد نظر خود را وارد کنید.

- 3. این برنامه را در چنین فایل منیجر آپلود کنید.

- 4. هر شبیه ساز آنلاین OS OnWorks را از این وب سایت راه اندازی کنید، اما شبیه ساز آنلاین ویندوز بهتر است.

- 5. از OnWorks Windows OS که به تازگی راه اندازی کرده اید، به مدیر فایل ما https://www.onworks.net/myfiles.php?username=XXXXX با نام کاربری که می خواهید بروید.

- 6. برنامه را دانلود و نصب کنید.

- 7. Wine را از مخازن نرم افزار توزیع لینوکس خود دانلود کنید. پس از نصب، می توانید روی برنامه دوبار کلیک کنید تا آنها را با Wine اجرا کنید. همچنین می توانید PlayOnLinux را امتحان کنید، یک رابط کاربری فانتزی بر روی Wine که به شما کمک می کند برنامه ها و بازی های محبوب ویندوز را نصب کنید.

Wine راهی برای اجرای نرم افزار ویندوز بر روی لینوکس است، اما بدون نیاز به ویندوز. Wine یک لایه سازگار با ویندوز منبع باز است که می تواند برنامه های ویندوز را مستقیماً بر روی هر دسکتاپ لینوکس اجرا کند. اساساً، Wine در تلاش است تا به اندازه کافی از ویندوز را از ابتدا مجدداً پیاده سازی کند تا بتواند همه آن برنامه های ویندوز را بدون نیاز به ویندوز اجرا کند.

اسکرین شات ها:


LocalAI


DESCRIPTION:

API سازگار با OpenAI محلی، خود میزبان، جامعه محور. جایگزینی برای OpenAI در حال اجرا LLM در سخت افزار درجه مصرف کننده. جایگزین OpenAI منبع باز رایگان. GPU مورد نیاز نیست. مدل های سازگار با ggml، GPTQ، onnx، TF: llama، gpt4all، rwkv، whisper، vicuna، koala، gpt4all-j، cerebras، falcon، dolly، starcoder و بسیاری دیگر را اجرا می کند. LocalAI یک API جایگزین REST است که با مشخصات OpenAI API برای استنتاج محلی سازگار است. این به شما امکان می دهد LLM ها (و نه تنها) را به صورت محلی یا روی پرم با سخت افزار درجه مصرف کننده اجرا کنید و از چندین خانواده مدل که با فرمت ggml سازگار هستند پشتیبانی می کند. به GPU نیاز ندارد.



امکانات

  • محلی، OpenAI کشویی جایگزین REST API
  • بدون نیاز به GPU
  • پشتیبانی از چندین مدل
  • هنگامی که بار اول بارگذاری شد، مدل ها را برای استنتاج سریعتر در حافظه بارگذاری می کند
  • هزینه نمی کند، اما از اتصالات C++ برای استنتاج سریعتر و عملکرد بهتر استفاده می کند
  • شما مالک داده های خود هستید


زبان برنامه نویسی

Go


دسته بندی ها

مدل‌های زبان بزرگ (LLM)، استنتاج LLM

این برنامه ای است که می تواند از https://sourceforge.net/projects/localai.mirror/ نیز دریافت شود. در OnWorks میزبانی شده است تا به آسانی از یکی از سیستم عامل های رایگان ما به صورت آنلاین اجرا شود.



جدیدترین برنامه های آنلاین لینوکس و ویندوز


دسته بندی برای دانلود نرم افزار و برنامه برای ویندوز و لینوکس