Ito ang Linux app na pinangalanang DeiT (Data-efficient Image Transformers) na ang pinakabagong release ay maaaring ma-download bilang deitsourcecode.tar.gz. Maaari itong patakbuhin online sa libreng hosting provider na OnWorks para sa mga workstation.
I-download at patakbuhin online ang app na ito na pinangalanang DeiT (Data-efficient Image Transformers) gamit ang OnWorks nang libre.
Sundin ang mga tagubiling ito upang patakbuhin ang app na ito:
- 1. Na-download ang application na ito sa iyong PC.
- 2. Ipasok sa aming file manager https://www.onworks.net/myfiles.php?username=XXXXX kasama ang username na gusto mo.
- 3. I-upload ang application na ito sa naturang filemanager.
- 4. Simulan ang OnWorks Linux online o Windows online emulator o MACOS online emulator mula sa website na ito.
- 5. Mula sa OnWorks Linux OS na kasisimula mo pa lang, pumunta sa aming file manager https://www.onworks.net/myfiles.php?username=XXXX gamit ang username na gusto mo.
- 6. I-download ang application, i-install ito at patakbuhin ito.
MGA SCREENSHOT:
DeiT (Data-efficient Image Transformers)
DESCRIPTION:
Ang DeiT (Data-efficient Image Transformers) ay nagpapakita na ang Vision Transformers ay maaaring sanayin nang mapagkumpitensya sa ImageNet-1k nang walang external na data sa pamamagitan ng paggamit ng malakas na mga recipe ng pagsasanay at paglilinis ng kaalaman. Ang pangunahing ideya nito ay isang espesyal na diskarte sa distillation—kabilang ang isang natututunang "distillation token"—na nagbibigay-daan sa isang transformer na epektibong matuto mula sa isang CNN o transformer teacher sa mga katamtamang sukat na dataset. Ang proyekto ay nagbibigay ng mga compact na variant ng ViT (Maliit/Maliit/Base) na nakakamit ng mahusay na katumpakan–throughput trade-off, na ginagawang praktikal ang mga transformer na lampas sa napakalaking rehimeng pretraining. Kasama sa pagsasanay ang maingat na nakatutok na mga augmentation, regularization, at mga iskedyul ng pag-optimize upang patatagin ang pag-aaral at pagbutihin ang kahusayan ng sample. Nag-aalok ang repo ng mga pretrained na checkpoints, reference script, at ablation studies na naglilinaw kung aling mga sangkap ang pinakamahalaga para sa data-efficient ViT training.
Mga tampok
- Data-efficient ViT training na gumagana sa ImageNet-1k mula sa simula
- Knowledge distillation na may nakalaang distillation token
- Compact model zoo (Maliit/Maliit/Base) na may malakas na accuracy-speed balance
- I-clear ang mga recipe ng pagsasanay na may mga augmentation at iskedyul ng regularization
- Mga pretrained na checkpoint at reproducible reference script
- Mga ablation at alituntunin para iakma ang DeiT sa mga bagong dataset at gawain
Wika ng Programming
Sawa
Kategorya
Ito ay isang application na maaari ding kunin mula sa https://sourceforge.net/projects/deit-data-img-trans.mirror/. Na-host ito sa OnWorks upang mapatakbo online sa pinakamadaling paraan mula sa isa sa aming mga libreng Operative System.