This is the Windows app named MAE (Masked Autoencoders) whose latest release can be downloaded as maesourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
I-download at patakbuhin online ang app na ito na pinangalanang MAE (Masked Autoencoders) gamit ang OnWorks nang libre.
Sundin ang mga tagubiling ito upang patakbuhin ang app na ito:
- 1. Na-download ang application na ito sa iyong PC.
- 2. Ipasok sa aming file manager https://www.onworks.net/myfiles.php?username=XXXXX kasama ang username na gusto mo.
- 3. I-upload ang application na ito sa naturang filemanager.
- 4. Magsimula ng anumang OS OnWorks online emulator mula sa website na ito, ngunit mas mahusay na Windows online emulator.
- 5. Mula sa OnWorks Windows OS na kasisimula mo pa lang, pumunta sa aming file manager https://www.onworks.net/myfiles.php?username=XXXX gamit ang username na gusto mo.
- 6. I-download ang application at i-install ito.
- 7. I-download ang Wine mula sa iyong mga Linux distributions software repository. Kapag na-install na, maaari mong i-double click ang app upang patakbuhin ang mga ito gamit ang Wine. Maaari mo ring subukan ang PlayOnLinux, isang magarbong interface sa ibabaw ng Wine na tutulong sa iyong mag-install ng mga sikat na programa at laro sa Windows.
Ang alak ay isang paraan upang patakbuhin ang software ng Windows sa Linux, ngunit walang kinakailangang Windows. Ang alak ay isang open-source na layer ng compatibility ng Windows na maaaring direktang magpatakbo ng mga program sa Windows sa anumang desktop ng Linux. Sa totoo lang, sinusubukan ng Wine na muling ipatupad ang sapat na Windows mula sa simula upang mapatakbo nito ang lahat ng mga Windows application na iyon nang hindi talaga nangangailangan ng Windows.
MGA LALAKI
Ad
MAE (Masked Autoencoders)
DESCRIPTION
Ang MAE (Masked Autoencoders) ay isang self-supervised learning framework para sa visual representation learning gamit ang masked image modelling. Sinasanay nito ang isang Vision Transformer (ViT) sa pamamagitan ng random na pag-mask ng mataas na porsyento ng mga patch ng larawan (karaniwang 75%) at muling pagtatayo ng nawawalang nilalaman mula sa natitirang nakikitang mga patch. Pinipilit nito ang modelo na matutunan ang semantic structure at pandaigdigang konteksto nang walang pangangasiwa. Pinoproseso lang ng encoder ang mga nakikitang patch, habang ang isang magaan na decoder ay nagre-reconstruct ng buong imahe—na ginagawang mahusay ang pagkalkula ng pretraining. Pagkatapos ng pretraining, ang encoder ay nagsisilbing isang makapangyarihang backbone para sa mga downstream na gawain tulad ng pag-uuri, pagse-segment, at pag-detect ng imahe, na nakakamit ng pinakamataas na pagganap na may kaunting fine-tuning. Nagbibigay ang repositoryo ng mga pretrained na modelo, fine-tuning na script, evaluation protocol, at visualization tool para sa kalidad ng reconstruction at mga natutunang feature.
Mga tampok
- Naka-mask na pagmomodelo ng larawan na may random na high-ratio patch masking
- Mahusay na pretraining sa pamamagitan ng encoder-decoder separation (nakikita lang ng encoder ang mga nakikitang patch)
- Scalable Vision Transformer backbone para sa mga gawain sa downstream vision
- Mga pretrained na modelo at fine-tuning na script para sa pag-uuri, pagtuklas, at pagse-segment
- Mga tool sa visualization para sa muling pagtatayo at pagtatasa ng representasyon
- Paradigm ng self-supervised na pagsasanay na nangangailangan ng walang label na data
Wika ng Programming
Sawa
Kategorya
Ito ay isang application na maaari ding makuha mula sa https://sourceforge.net/projects/mae-masked-autoencoders.mirror/. Na-host ito sa OnWorks upang mapatakbo online sa pinakamadaling paraan mula sa isa sa aming mga libreng Operative System.