Ini ialah apl Linux bernama MegEngine yang keluaran terbarunya boleh dimuat turun sebagai MegEnginev1.13.2sourcecode.zip. Ia boleh dijalankan dalam talian dalam penyedia pengehosan percuma OnWorks untuk stesen kerja.
Muat turun dan jalankan dalam talian aplikasi bernama MegEngine ini dengan OnWorks secara percuma.
Ikut arahan ini untuk menjalankan apl ini:
- 1. Memuat turun aplikasi ini dalam PC anda.
- 2. Masukkan dalam pengurus fail kami https://www.onworks.net/myfiles.php?username=XXXXX dengan nama pengguna yang anda mahukan.
- 3. Muat naik aplikasi ini dalam pengurus filem tersebut.
- 4. Mulakan OnWorks Linux dalam talian atau emulator dalam talian Windows atau emulator dalam talian MACOS dari tapak web ini.
- 5. Daripada OS Linux OnWorks yang baru anda mulakan, pergi ke pengurus fail kami https://www.onworks.net/myfiles.php?username=XXXX dengan nama pengguna yang anda mahukan.
- 6. Muat turun aplikasi, pasang dan jalankan.
SKRIN
Ad
MegEngine
DESCRIPTION
MegEngine ialah rangka kerja pembelajaran mendalam yang pantas, berskala dan mudah digunakan dengan 3 ciri utama. Anda boleh mewakili kuantisasi/bentuk dinamik/pemprosesan imej dan juga derivasi dalam satu model. Selepas latihan, masukkan sahaja segala-galanya ke dalam model anda dan simpulkan pada mana-mana platform dengan mudah. Masalah kelajuan dan ketepatan tidak akan mengganggu anda lagi kerana teras yang sama di dalam. Dalam latihan, penggunaan memori GPU boleh turun kepada satu pertiga dengan kos hanya satu baris tambahan, yang membolehkan algoritma DTR. Dapatkan penggunaan memori terendah apabila membuat inferens model dengan memanfaatkan perancang memori pushdown unik kami. NOTA: MegEngine kini menyokong pemasangan Python pada platform Linux-64bit/Windows-64bit/MacOS(CPU-Only)-10.14+/Android 7+(CPU-Only) dengan Python daripada 3.5 hingga 3.8. Pada Windows 10 anda boleh sama ada memasang pengedaran Linux melalui Windows Subsystem untuk Linux (WSL) atau memasang pengedaran Windows secara terus. Banyak platform lain disokong untuk inferens.
Ciri-ciri
- Inferens pantas dan berketepatan tinggi pada x86/Arm/CUDA/RoCM
- Menyokong Linux/Windows/iOS/Android/TEE
- Teras bersatu untuk kedua-dua latihan dan inferens
- Keperluan perkakasan terendah dibantu oleh algoritma
- Inferens dengan cekap pada semua platform
- Simpan lebih banyak memori dan optimumkan kelajuan dengan memanfaatkan penggunaan lanjutan
Bahasa Pengaturcaraan
C + +
Kategori
Ini adalah aplikasi yang juga boleh diambil dari https://sourceforge.net/projects/megengine.mirror/. Ia telah dihoskan dalam OnWorks untuk dijalankan dalam talian dengan cara yang paling mudah daripada salah satu Sistem Operasi percuma kami.