Ini adalah aplikasi Windows bernama LocalAI yang rilis terbarunya dapat diunduh sebagai v1.30.0.zip. Ini dapat dijalankan secara online di penyedia hosting gratis OnWorks untuk workstation.
Unduh dan jalankan secara online aplikasi bernama LocalAI dengan OnWorks ini secara gratis.
Ikuti petunjuk ini untuk menjalankan aplikasi ini:
- 1. Download aplikasi ini di PC Anda.
- 2. Masuk ke file manager kami https://www.onworks.net/myfiles.php?username=XXXXX dengan username yang anda inginkan.
- 3. Upload aplikasi ini di filemanager tersebut.
- 4. Mulai emulator online OS OnWorks apa pun dari situs web ini, tetapi emulator online Windows yang lebih baik.
- 5. Dari OS Windows OnWorks yang baru saja Anda mulai, buka file manager kami https://www.onworks.net/myfiles.php?username=XXXXX dengan nama pengguna yang Anda inginkan.
- 6. Unduh aplikasi dan instal.
- 7. Unduh Wine dari repositori perangkat lunak distribusi Linux Anda. Setelah terinstal, Anda kemudian dapat mengklik dua kali aplikasi untuk menjalankannya dengan Wine. Anda juga dapat mencoba PlayOnLinux, antarmuka mewah di atas Wine yang akan membantu Anda menginstal program dan game Windows populer.
Wine adalah cara untuk menjalankan perangkat lunak Windows di Linux, tetapi tidak memerlukan Windows. Wine adalah lapisan kompatibilitas Windows sumber terbuka yang dapat menjalankan program Windows secara langsung di desktop Linux apa pun. Pada dasarnya, Wine mencoba untuk mengimplementasikan kembali Windows dari awal sehingga dapat menjalankan semua aplikasi Windows tersebut tanpa benar-benar membutuhkan Windows.
Tangkapan layar
Ad
AI Lokal
DESKRIPSI
API lokal yang kompatibel dengan OpenAI yang dihosting sendiri, berbasis komunitas. Pengganti langsung untuk OpenAI yang menjalankan LLM pada perangkat keras tingkat konsumen. Alternatif OpenAI Sumber Terbuka Gratis. Tidak diperlukan GPU. Menjalankan model yang kompatibel dengan ggml, GPTQ, onnx, TF: llama, gpt4all, rwkv, Whisper, vicuna, koala, gpt4all-j, cerebras, falcon, dolly, starcoder, dan banyak lainnya. LocalAI adalah REST API pengganti drop-in yang kompatibel dengan spesifikasi OpenAI API untuk inferensi lokal. Ini memungkinkan Anda menjalankan LLM (dan tidak hanya) secara lokal atau lokal dengan perangkat keras tingkat konsumen, mendukung beberapa rangkaian model yang kompatibel dengan format ggml. Tidak memerlukan GPU.
Fitur
- REST API alternatif drop-in OpenAI lokal
- TIDAK diperlukan GPU
- Mendukung banyak model
- Setelah dimuat pertama kali, model tetap dimuat di memori untuk inferensi yang lebih cepat
- Tidak mengeluarkan uang banyak, tetapi menggunakan pengikatan C++ untuk inferensi yang lebih cepat dan kinerja yang lebih baik
- Anda memiliki data Anda
Bahasa Pemrograman
Go
Kategori
Ini adalah aplikasi yang juga dapat diambil dari https://sourceforge.net/projects/localai.mirror/. Ini telah dihosting di OnWorks untuk dijalankan online dengan cara termudah dari salah satu Sistem Operasi gratis kami.