Đây là ứng dụng Linux có tên MNN, có thể tải xuống bản phát hành mới nhất dưới dạng mnn_3.2.0_ios_armv82_cpu_metal_coreml.zip. Nó có thể được chạy trực tuyến trong nhà cung cấp dịch vụ lưu trữ miễn phí OnWorks cho máy trạm.
Tải xuống và chạy trực tuyến ứng dụng có tên MNN này với OnWorks miễn phí.
Làm theo các hướng dẫn sau để chạy ứng dụng này:
- 1. Đã tải ứng dụng này xuống PC của bạn.
- 2. Nhập vào trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.
- 3. Tải lên ứng dụng này trong trình quản lý tệp như vậy.
- 4. Khởi động trình giả lập trực tuyến OnWorks Linux hoặc trình giả lập trực tuyến Windows hoặc trình mô phỏng trực tuyến MACOS từ trang web này.
- 5. Từ Hệ điều hành OnWorks Linux mà bạn vừa khởi động, hãy truy cập trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.
- 6. Tải xuống ứng dụng, cài đặt và chạy nó.
MÀN HÌNH
Ad
MNN
MÔ TẢ
MNN là một khung học sâu hiệu quả cao và nhẹ. Nó hỗ trợ suy luận và đào tạo các mô hình học sâu và có hiệu suất hàng đầu trong ngành đối với việc suy luận và đào tạo trên thiết bị. Hiện tại, MNN đã được tích hợp trong hơn 20 ứng dụng của Alibaba Inc, chẳng hạn như Taobao, Tmall, Youku, Dingtalk, Xianyu, v.v., bao gồm hơn 70 tình huống sử dụng như phát sóng trực tiếp, quay video ngắn, đề xuất tìm kiếm, sản phẩm tìm kiếm bằng hình ảnh, tiếp thị tương tác, phân phối vốn chủ sở hữu, kiểm soát rủi ro an ninh. Ngoài ra, MNN cũng được sử dụng trên các thiết bị nhúng, chẳng hạn như IoT. MNN Workbench có thể được tải xuống từ trang chủ của MNN, nơi cung cấp các mô hình được đào tạo trước, các công cụ đào tạo trực quan và triển khai mô hình bằng một cú nhấp chuột cho các thiết bị. Nền tảng Android, lõi nên kích thước khoảng 400KB, OpenCL cũng vậy là khoảng 400KB, Vulkan cũng vậy là khoảng 400KB. Hỗ trợ tính toán kết hợp trên nhiều thiết bị. Hiện hỗ trợ CPU và GPU.
Tính năng
- Triển khai điện toán lõi với nhiều mã lắp ráp được tối ưu hóa để sử dụng đầy đủ CPU ARM
- Đối với iOS, tăng tốc GPU (Metal) có thể được bật, nhanh hơn CoreML gốc của Apple
- Đối với Android, OpenCL, Vulkan và OpenGL có sẵn và được điều chỉnh sâu cho các GPU chính (Adreno và Mali)
- Các thuật toán tích chập chuyển vị và chuyển vị hiệu quả và ổn định. Thuật toán tích chập Winograd được sử dụng rộng rãi để tạo ra các phép chập đối xứng tốt hơn như 3x3 -> 7x7
- Tăng tốc độ hai lần cho kiến trúc mới ARM v8.2 với hỗ trợ tính toán nửa chính xác FP16
- Được tối ưu hóa cho các thiết bị, không phụ thuộc, có thể dễ dàng triển khai cho các thiết bị di động và nhiều loại thiết bị nhúng khác nhau
Ngôn ngữ lập trình
C + +
Danh Mục
Đây là một ứng dụng cũng có thể được tìm nạp từ https://sourceforge.net/projects/mnn.mirror/. Nó đã được lưu trữ trên OnWorks để có thể chạy trực tuyến một cách dễ dàng nhất từ một trong những Hệ thống hoạt động miễn phí của chúng tôi.