Đây là ứng dụng Linux có tên MAE (Masked Autoencoders) với phiên bản mới nhất có thể tải xuống dưới dạng maesourcecode.tar.gz. Ứng dụng có thể chạy trực tuyến trên nhà cung cấp dịch vụ lưu trữ miễn phí OnWorks dành cho máy trạm.
Tải xuống và chạy trực tuyến ứng dụng có tên MAE (Masked Autoencoders) với OnWorks miễn phí.
Làm theo các hướng dẫn sau để chạy ứng dụng này:
- 1. Đã tải ứng dụng này xuống PC của bạn.
- 2. Nhập vào trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.
- 3. Tải lên ứng dụng này trong trình quản lý tệp như vậy.
- 4. Khởi động trình giả lập trực tuyến OnWorks Linux hoặc trình giả lập trực tuyến Windows hoặc trình mô phỏng trực tuyến MACOS từ trang web này.
- 5. Từ Hệ điều hành OnWorks Linux mà bạn vừa khởi động, hãy truy cập trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.
- 6. Tải xuống ứng dụng, cài đặt và chạy nó.
MÀN HÌNH:
MAE (Bộ mã hóa tự động có mặt nạ)
SỰ MIÊU TẢ:
MAE (Masked Autoencoders) là một khuôn khổ học tự giám sát cho việc học biểu diễn hình ảnh bằng cách sử dụng mô hình hóa hình ảnh bị che khuất. Nó huấn luyện một Vision Transformer (ViT) bằng cách che giấu ngẫu nhiên một tỷ lệ lớn các mảng hình ảnh (thường là 75%) và tái tạo nội dung bị thiếu từ các mảng hình ảnh còn lại. Điều này buộc mô hình phải học cấu trúc ngữ nghĩa và ngữ cảnh toàn cục mà không cần giám sát. Bộ mã hóa chỉ xử lý các mảng hình ảnh có thể nhìn thấy, trong khi một bộ giải mã nhẹ sẽ tái tạo lại toàn bộ hình ảnh—giúp việc tiền huấn luyện hiệu quả về mặt tính toán. Sau khi tiền huấn luyện, bộ mã hóa đóng vai trò là xương sống mạnh mẽ cho các tác vụ hạ nguồn như phân loại, phân đoạn và phát hiện hình ảnh, đạt hiệu suất cao nhất với việc tinh chỉnh tối thiểu. Kho lưu trữ cung cấp các mô hình được đào tạo trước, các tập lệnh tinh chỉnh, giao thức đánh giá và các công cụ trực quan hóa để tái tạo chất lượng và các tính năng đã học.
Tính năng
- Mô hình hóa hình ảnh có mặt nạ với mặt nạ vá tỷ lệ cao ngẫu nhiên
- Tiền đào tạo hiệu quả thông qua việc tách bộ mã hóa-bộ giải mã (bộ mã hóa chỉ nhìn thấy các bản vá có thể nhìn thấy)
- Xương sống của Vision Transformer có thể mở rộng cho các tác vụ tầm nhìn hạ lưu
- Các mô hình được đào tạo trước và các tập lệnh tinh chỉnh để phân loại, phát hiện và phân đoạn
- Công cụ trực quan hóa để tái tạo và phân tích biểu diễn
- Mô hình đào tạo tự giám sát không yêu cầu dữ liệu được gắn nhãn
Ngôn ngữ lập trình
Python
Danh Mục
Đây là một ứng dụng cũng có thể được tải xuống từ https://sourceforge.net/projects/mae-masked-autoencoders.mirror/. Ứng dụng này được lưu trữ trên OnWorks để có thể chạy trực tuyến dễ dàng nhất từ một trong những Hệ điều hành miễn phí của chúng tôi.