Ini adalah aplikasi Linux bernama Fairseq yang rilis terbarunya dapat diunduh sebagai v0.10.2.zip. Ini dapat dijalankan secara online di penyedia hosting gratis OnWorks untuk workstation.
Unduh dan jalankan secara online aplikasi bernama Fairseq dengan OnWorks ini secara gratis.
Ikuti petunjuk ini untuk menjalankan aplikasi ini:
- 1. Download aplikasi ini di PC Anda.
- 2. Masuk ke file manager kami https://www.onworks.net/myfiles.php?username=XXXXX dengan username yang anda inginkan.
- 3. Upload aplikasi ini di filemanager tersebut.
- 4. Jalankan emulator online OnWorks Linux atau Windows online atau emulator online MACOS dari situs web ini.
- 5. Dari OS Linux OnWorks yang baru saja Anda mulai, buka file manager kami https://www.onworks.net/myfiles.php?username=XXXXX dengan nama pengguna yang Anda inginkan.
- 6. Download aplikasinya, install dan jalankan.
Tangkapan layar
Ad
Fairseq
DESKRIPSI
Fairseq(-py) adalah toolkit pemodelan urutan yang memungkinkan peneliti dan pengembang untuk melatih model kustom untuk terjemahan, ringkasan, pemodelan bahasa dan tugas generasi teks lainnya. Kami menyediakan implementasi referensi dari berbagai makalah pemodelan urutan. Pekerjaan terbaru oleh Microsoft dan Google telah menunjukkan bahwa pelatihan paralel data dapat dibuat lebih efisien secara signifikan dengan membagi parameter model dan status pengoptimal di seluruh pekerja paralel data. Ide-ide ini dikemas dalam pembungkus FullyShardedDataParallel (FSDP) baru yang disediakan oleh fairscale. Fairseq dapat diperluas melalui plug-in yang disediakan pengguna. Model mendefinisikan arsitektur jaringan saraf dan merangkum semua parameter yang dapat dipelajari. Kriteria menghitung fungsi kerugian yang diberikan model keluaran dan target. Tasks menyimpan kamus dan menyediakan pembantu untuk memuat/mengulangi Kumpulan Data, menginisialisasi Model/Kriteria, dan menghitung kerugian.
Fitur
- Pelatihan multi-GPU pada satu mesin atau di beberapa mesin (data dan model paralel)
- Generasi cepat pada CPU dan GPU dengan beberapa algoritma pencarian yang diterapkan
- Akumulasi gradien memungkinkan pelatihan dengan mini-batch besar bahkan pada satu GPU
- Pelatihan presisi campuran (melatih lebih cepat dengan memori GPU lebih sedikit pada inti tensor NVIDIA)
- Daftarkan model, kriteria, tugas, pengoptimal, dan penjadwal kecepatan pembelajaran baru dengan mudah
- Konfigurasi fleksibel berdasarkan Hydra memungkinkan kombinasi kode, baris perintah, dan konfigurasi berbasis file
Bahasa Pemrograman
Ular sanca
Kategori
Ini adalah aplikasi yang juga dapat diambil dari https://sourceforge.net/projects/fairseq.mirror/. Ini telah di-host di OnWorks untuk dijalankan secara online dengan cara termudah dari salah satu Sistem Operasi gratis kami.