این برنامه لینوکس به نام LocalAI است که آخرین نسخه آن را می توان با عنوان v1.30.0.zip دانلود کرد. می توان آن را به صورت آنلاین در ارائه دهنده میزبانی رایگان OnWorks برای ایستگاه های کاری اجرا کرد.
این برنامه با نام LocalAI را با OnWorks به صورت آنلاین دانلود و اجرا کنید.
برای اجرای این برنامه این دستورالعمل ها را دنبال کنید:
- 1. این برنامه را در رایانه شخصی خود دانلود کنید.
- 2. در فایل منیجر ما https://www.onworks.net/myfiles.php?username=XXXXX نام کاربری مورد نظر خود را وارد کنید.
- 3. این برنامه را در چنین فایل منیجر آپلود کنید.
- 4. OnWorks Linux آنلاین یا شبیه ساز آنلاین ویندوز یا شبیه ساز آنلاین MACOS را از این وب سایت راه اندازی کنید.
- 5. از سیستم عامل لینوکس OnWorks که به تازگی راه اندازی کرده اید، به مدیر فایل ما https://www.onworks.net/myfiles.php?username=XXXXX با نام کاربری که می خواهید بروید.
- 6. اپلیکیشن را دانلود کرده، نصب و اجرا کنید.
عکس ها
Ad
LocalAI
شرح
API سازگار با OpenAI محلی، خود میزبان، جامعه محور. جایگزینی برای OpenAI در حال اجرا LLM در سخت افزار درجه مصرف کننده. جایگزین OpenAI منبع باز رایگان. GPU مورد نیاز نیست. مدل های سازگار با ggml، GPTQ، onnx، TF: llama، gpt4all، rwkv، whisper، vicuna، koala، gpt4all-j، cerebras، falcon، dolly، starcoder و بسیاری دیگر را اجرا می کند. LocalAI یک API جایگزین REST است که با مشخصات OpenAI API برای استنتاج محلی سازگار است. این به شما امکان می دهد LLM ها (و نه تنها) را به صورت محلی یا روی پرم با سخت افزار درجه مصرف کننده اجرا کنید و از چندین خانواده مدل که با فرمت ggml سازگار هستند پشتیبانی می کند. به GPU نیاز ندارد.
امکانات
- محلی، OpenAI کشویی جایگزین REST API
- بدون نیاز به GPU
- پشتیبانی از چندین مدل
- هنگامی که بار اول بارگذاری شد، مدل ها را برای استنتاج سریعتر در حافظه بارگذاری می کند
- هزینه نمی کند، اما از اتصالات C++ برای استنتاج سریعتر و عملکرد بهتر استفاده می کند
- شما مالک داده های خود هستید
زبان برنامه نویسی
Go
دسته بندی ها
این برنامه ای است که می تواند از https://sourceforge.net/projects/localai.mirror/ نیز دریافت شود. در OnWorks میزبانی شده است تا به آسانی از یکی از سیستم عامل های رایگان ما به صورت آنلاین اجرا شود.