This is the Windows app named LLaMA whose latest release can be downloaded as llamav2sourcecode.zip. It can be run online in the free hosting provider OnWorks for workstations.
Unduh dan jalankan aplikasi ini secara daring bernama LLaMA dengan OnWorks secara gratis.
Ikuti petunjuk ini untuk menjalankan aplikasi ini:
- 1. Download aplikasi ini di PC Anda.
- 2. Masuk ke file manager kami https://www.onworks.net/myfiles.php?username=XXXXX dengan username yang anda inginkan.
- 3. Upload aplikasi ini di filemanager tersebut.
- 4. Mulai emulator online OS OnWorks apa pun dari situs web ini, tetapi emulator online Windows yang lebih baik.
- 5. Dari OS Windows OnWorks yang baru saja Anda mulai, buka file manager kami https://www.onworks.net/myfiles.php?username=XXXXX dengan nama pengguna yang Anda inginkan.
- 6. Unduh aplikasi dan instal.
- 7. Unduh Wine dari repositori perangkat lunak distribusi Linux Anda. Setelah terinstal, Anda kemudian dapat mengklik dua kali aplikasi untuk menjalankannya dengan Wine. Anda juga dapat mencoba PlayOnLinux, antarmuka mewah di atas Wine yang akan membantu Anda menginstal program dan game Windows populer.
Wine adalah cara untuk menjalankan perangkat lunak Windows di Linux, tetapi tidak memerlukan Windows. Wine adalah lapisan kompatibilitas Windows sumber terbuka yang dapat menjalankan program Windows secara langsung di desktop Linux apa pun. Pada dasarnya, Wine mencoba untuk mengimplementasikan kembali Windows dari awal sehingga dapat menjalankan semua aplikasi Windows tersebut tanpa benar-benar membutuhkan Windows.
Tangkapan layar
Ad
Panggilan
DESKRIPSI
"Llama" adalah repositori dari Meta (sebelumnya Facebook/Meta Research) yang berisi kode inferensi untuk model LLaMA (Large Language Model Meta AI). Repositori ini menyediakan utilitas untuk memuat bobot model LLaMA yang telah dilatih sebelumnya, menjalankan inferensi (pembuatan teks, obrolan, pelengkapan), dan bekerja dengan tokenizer. Repositori ini merupakan bagian inti dari infrastruktur model Llama, yang digunakan oleh para peneliti dan pengembang untuk menjalankan model LLaMA secara lokal atau di infrastruktur mereka. Repositori ini ditujukan untuk inferensi (bukan pelatihan dari awal) dan terhubung dengan aspek-aspek seperti kartu model, penggunaan yang bertanggung jawab, lisensi, dll.
Fitur
- Menyediakan kode referensi untuk memuat berbagai bobot pra-latihan LLaMA (7B, 13B, 70B, dll.) dan melakukan inferensi (obrolan atau penyelesaian)
- Utilitas tokenizer, skrip unduhan, pembantu shell untuk mengambil bobot model dengan lisensi / izin yang benar
- Dukungan untuk pengaturan multi-parameter (ukuran batch, panjang konteks, jumlah GPU / paralelisme) untuk skala ke model / mesin yang lebih besar
- Panduan Lisensi / Penggunaan yang Bertanggung Jawab; kartu model dan dokumentasi tentang bagaimana model dapat digunakan atau dibatasi
- Termasuk contoh skrip untuk pelengkapan obrolan dan pelengkapan teks untuk menunjukkan cara memanggil model dalam kode
- Kompatibilitas dengan kerangka kerja pembelajaran mendalam standar (PyTorch dll.) untuk penggunaan inferensi, termasuk memastikan dependensi yang diperlukan dan skrip pengaturan disertakan
Bahasa Pemrograman
Ular sanca
KATEGORI
Ini adalah aplikasi yang juga dapat diunduh dari https://sourceforge.net/projects/llama.mirror/. Aplikasi ini dihosting di OnWorks agar dapat dijalankan secara daring dengan cara termudah dari salah satu Sistem Operasi gratis kami.