This is the Windows app named MAE (Masked Autoencoders) whose latest release can be downloaded as maesourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
Descargue y ejecute en línea esta aplicación llamada MAE (Masked Autoencoders) con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie cualquier emulador en línea de OS OnWorks desde este sitio web, pero mejor emulador en línea de Windows.
- 5. Desde el sistema operativo OnWorks Windows que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación e instálala.
- 7. Descargue Wine desde los repositorios de software de sus distribuciones de Linux. Una vez instalada, puede hacer doble clic en la aplicación para ejecutarla con Wine. También puedes probar PlayOnLinux, una elegante interfaz sobre Wine que te ayudará a instalar programas y juegos populares de Windows.
Wine es una forma de ejecutar software de Windows en Linux, pero no requiere Windows. Wine es una capa de compatibilidad de Windows de código abierto que puede ejecutar programas de Windows directamente en cualquier escritorio de Linux. Esencialmente, Wine está tratando de volver a implementar una cantidad suficiente de Windows desde cero para poder ejecutar todas esas aplicaciones de Windows sin necesidad de Windows.
SCREENSHOTS
Ad
MAE (Autocodificadores enmascarados)
DESCRIPCIÓN
MAE (Autocodificadores Enmascarados) es un marco de aprendizaje autosupervisado para el aprendizaje de la representación visual mediante el modelado de imágenes enmascaradas. Entrena un Transformador de Visión (ViT) enmascarando aleatoriamente un alto porcentaje de parches de imagen (normalmente el 75%) y reconstruyendo el contenido faltante a partir de los parches visibles restantes. Esto obliga al modelo a aprender la estructura semántica y el contexto global sin supervisión. El codificador procesa únicamente los parches visibles, mientras que un decodificador ligero reconstruye la imagen completa, lo que hace que el preentrenamiento sea computacionalmente eficiente. Tras el preentrenamiento, el codificador actúa como una potente columna vertebral para tareas posteriores como la clasificación, segmentación y detección de imágenes, logrando un rendimiento óptimo con un ajuste fino mínimo. El repositorio proporciona modelos preentrenados, scripts de ajuste fino, protocolos de evaluación y herramientas de visualización para la calidad de la reconstrucción y las características aprendidas.
Caracteristicas
- Modelado de imágenes enmascaradas con enmascaramiento de parches aleatorios de alta relación
- Preentrenamiento eficiente mediante la separación del codificador y el decodificador (el codificador solo ve los parches visibles)
- Transformador de visión escalable, columna vertebral para tareas de visión posteriores
- Modelos preentrenados y scripts de ajuste para clasificación, detección y segmentación
- Herramientas de visualización para reconstrucción y análisis de representación
- Paradigma de entrenamiento autosupervisado que no requiere datos etiquetados
Lenguaje de programación
Python
Categorías
Esta aplicación también se puede descargar desde https://sourceforge.net/projects/mae-masked-autoencoders.mirror/. Está alojada en OnWorks para facilitar su ejecución en línea desde uno de nuestros sistemas operativos gratuitos.