This is the Windows app named DeiT (Data-efficient Image Transformers) whose latest release can be downloaded as deitsourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
I-download at patakbuhin online ang app na ito na pinangalanang DeiT (Data-efficient Image Transformers) gamit ang OnWorks nang libre.
Sundin ang mga tagubiling ito upang patakbuhin ang app na ito:
- 1. Na-download ang application na ito sa iyong PC.
- 2. Ipasok sa aming file manager https://www.onworks.net/myfiles.php?username=XXXXX kasama ang username na gusto mo.
- 3. I-upload ang application na ito sa naturang filemanager.
- 4. Magsimula ng anumang OS OnWorks online emulator mula sa website na ito, ngunit mas mahusay na Windows online emulator.
- 5. Mula sa OnWorks Windows OS na kasisimula mo pa lang, pumunta sa aming file manager https://www.onworks.net/myfiles.php?username=XXXX gamit ang username na gusto mo.
- 6. I-download ang application at i-install ito.
- 7. I-download ang Wine mula sa iyong mga Linux distributions software repository. Kapag na-install na, maaari mong i-double click ang app upang patakbuhin ang mga ito gamit ang Wine. Maaari mo ring subukan ang PlayOnLinux, isang magarbong interface sa ibabaw ng Wine na tutulong sa iyong mag-install ng mga sikat na programa at laro sa Windows.
Ang alak ay isang paraan upang patakbuhin ang software ng Windows sa Linux, ngunit walang kinakailangang Windows. Ang alak ay isang open-source na layer ng compatibility ng Windows na maaaring direktang magpatakbo ng mga program sa Windows sa anumang desktop ng Linux. Sa totoo lang, sinusubukan ng Wine na muling ipatupad ang sapat na Windows mula sa simula upang mapatakbo nito ang lahat ng mga Windows application na iyon nang hindi talaga nangangailangan ng Windows.
MGA LALAKI
Ad
DeiT (Data-efficient Image Transformers)
DESCRIPTION
Ang DeiT (Data-efficient Image Transformers) ay nagpapakita na ang Vision Transformers ay maaaring sanayin nang mapagkumpitensya sa ImageNet-1k nang walang external na data sa pamamagitan ng paggamit ng malakas na mga recipe ng pagsasanay at paglilinis ng kaalaman. Ang pangunahing ideya nito ay isang espesyal na diskarte sa distillation—kabilang ang isang natututunang "distillation token"—na nagbibigay-daan sa isang transformer na epektibong matuto mula sa isang CNN o transformer teacher sa mga katamtamang sukat na dataset. Ang proyekto ay nagbibigay ng mga compact na variant ng ViT (Maliit/Maliit/Base) na nakakamit ng mahusay na katumpakan–throughput trade-off, na ginagawang praktikal ang mga transformer na lampas sa napakalaking rehimeng pretraining. Kasama sa pagsasanay ang maingat na nakatutok na mga augmentation, regularization, at mga iskedyul ng pag-optimize upang patatagin ang pag-aaral at pagbutihin ang kahusayan ng sample. Nag-aalok ang repo ng mga pretrained na checkpoints, reference script, at ablation studies na naglilinaw kung aling mga sangkap ang pinakamahalaga para sa data-efficient ViT training.
Mga tampok
- Data-efficient ViT training na gumagana sa ImageNet-1k mula sa simula
- Knowledge distillation na may nakalaang distillation token
- Compact model zoo (Maliit/Maliit/Base) na may malakas na accuracy-speed balance
- I-clear ang mga recipe ng pagsasanay na may mga augmentation at iskedyul ng regularization
- Mga pretrained na checkpoint at reproducible reference script
- Mga ablation at alituntunin para iakma ang DeiT sa mga bagong dataset at gawain
Wika ng Programming
Sawa
Kategorya
Ito ay isang application na maaari ding kunin mula sa https://sourceforge.net/projects/deit-data-img-trans.mirror/. Na-host ito sa OnWorks upang mapatakbo online sa pinakamadaling paraan mula sa isa sa aming mga libreng Operative System.
