이것은 최신 릴리스를 mnn_2.7.1_ios_armv82_cpu_metal_coreml.zip으로 다운로드할 수 있는 MNN이라는 Linux 앱입니다. 워크스테이션용 무료 호스팅 제공업체인 OnWorks에서 온라인으로 실행할 수 있습니다.
OnWorks와 함께 MNN이라는 이 앱을 온라인에서 무료로 다운로드하여 실행하십시오.
이 앱을 실행하려면 다음 지침을 따르세요.
- 1. 이 애플리케이션을 PC에 다운로드했습니다.
- 2. 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX에 원하는 사용자 이름을 입력합니다.
- 3. 이러한 파일 관리자에서 이 응용 프로그램을 업로드합니다.
- 4. 이 웹사이트에서 OnWorks Linux 온라인 또는 Windows 온라인 에뮬레이터 또는 MACOS 온라인 에뮬레이터를 시작합니다.
- 5. 방금 시작한 OnWorks Linux OS에서 원하는 사용자 이름으로 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX로 이동합니다.
- 6. 응용 프로그램을 다운로드하여 설치하고 실행합니다.
스크린 샷
Ad
MNN
기술
MNN은 매우 효율적이고 가벼운 딥 러닝 프레임워크입니다. 딥 러닝 모델의 추론 및 교육을 지원하고 장치 내 추론 및 교육을 위한 업계 최고의 성능을 제공합니다. 현재 MNN은 Taobao, Tmall, Youku, Dingtalk, Xianyu 등과 같은 Alibaba Inc의 20개 이상의 앱에 통합되어 라이브 방송, 짧은 비디오 캡처, 검색 추천, 제품과 같은 70개 이상의 사용 시나리오를 다룹니다. 이미지로 검색, 인터랙티브 마케팅, 주식 분배, 보안 위험 관리. 또한 MNN은 IoT와 같은 임베디드 장치에도 사용됩니다. MNN Workbench는 사전 학습된 모델, 시각화된 학습 도구 및 원클릭 모델 배포를 제공하는 MNN 홈페이지에서 다운로드할 수 있습니다. Android 플랫폼, 코어 크기는 약 400KB, OpenCL 크기는 약 400KB, Vulkan 크기는 약 400KB입니다. 여러 장치에서 하이브리드 컴퓨팅을 지원합니다. 현재 CPU와 GPU를 지원합니다.
특징
- ARM CPU를 최대한 활용하기 위해 많은 최적화된 어셈블리 코드로 코어 컴퓨팅을 구현합니다.
- iOS의 경우 GPU 가속(Metal)을 켤 수 있으며 이는 Apple의 기본 CoreML보다 빠릅니다.
- Android의 경우 OpenCL, Vulkan 및 OpenGL을 사용할 수 있으며 주류 GPU(Adreno 및 Mali)에 대해 심도 있게 조정되었습니다.
- Convolution 및 Transposition Convolution 알고리즘은 효율적이고 안정적입니다. Winograd 컨볼루션 알고리즘은 3x3 -> 7x7과 같은 더 나은 대칭 컨볼루션에 널리 사용됩니다.
- FP8.2 반정밀도 계산을 지원하는 새로운 아키텍처 ARM v16의 속도 XNUMX배 증가
- 장치에 최적화되어 종속성이 없으며 모바일 장치 및 다양한 임베디드 장치에 쉽게 배포할 수 있습니다.
프로그래밍 언어
C + +
카테고리
이것은 https://sourceforge.net/projects/mnn.mirror/에서도 가져올 수 있는 애플리케이션입니다. 무료 운영 체제 중 하나에서 가장 쉬운 방법으로 온라인으로 실행하기 위해 OnWorks에서 호스팅되었습니다.