这是名为 MAE(Masked Autoencoders)的 Linux 应用程序,其最新版本可以下载为 maesourcecode.tar.gz。它可以在免费的工作站托管服务提供商 OnWorks 上在线运行。
使用 OnWorks 免费下载并在线运行这个名为 MAE(Masked Autoencoders)的应用程序。
请按照以下说明运行此应用程序:
- 1. 在您的 PC 中下载此应用程序。
- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。
- 3. 在这样的文件管理器中上传这个应用程序。
- 4. 从此网站启动OnWorks Linux online 或Windows online emulator 或MACOS online emulator。
- 5. 从您刚刚启动的 OnWorks Linux 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。
- 6. 下载应用程序,安装并运行。
截图:
MAE(掩蔽自动编码器)
描述:
MAE(蒙蔽自编码器)是一个自监督学习框架,用于使用蒙蔽图像建模进行视觉表征学习。它通过随机遮盖高比例的图像块(通常为 75%),并利用剩余的可见块重建缺失内容来训练视觉变换器 (ViT)。这迫使模型在无监督的情况下学习语义结构和全局上下文。编码器仅处理可见的块,而轻量级解码器则重建整幅图像,从而提高预训练的计算效率。预训练后,编码器将成为图像分类、分割和检测等下游任务的强大支撑,以极少的微调实现最佳性能。该代码库提供预训练模型、微调脚本、评估协议以及可视化工具,用于评估重建质量和学习到的特征。
功能
- 随机高比例补丁掩蔽的掩蔽图像建模
- 通过编码器-解码器分离进行高效的预训练(编码器仅看到可见的补丁)
- 用于下游视觉任务的可扩展 Vision Transformer 主干
- 用于分类、检测和分割的预训练模型和微调脚本
- 用于重建和表示分析的可视化工具
- 无需标记数据的自监督训练范式
程式语言
Python
分类
此应用程序也可从 https://sourceforge.net/projects/mae-masked-autoencoders.mirror/ 获取。它已托管在 OnWorks 中,以便通过我们的免费操作系统之一以最便捷的方式在线运行。