これは MNN という名前の Linux アプリで、その最新リリースは mnn_2.7.1_ios_armv82_cpu_metal_coreml.zip としてダウンロードできます。 これは、ワークステーション用の無料のホスティング プロバイダーである OnWorks でオンラインで実行できます。
OnWorksでMNNという名前のこのアプリを無料でダウンロードしてオンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。
-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードし、インストールして実行します。
スクリーンショットは
Ad
MNN
DESCRIPTION
MNNは、非常に効率的で軽量な深層学習フレームワークです。 ディープラーニングモデルの推論とトレーニングをサポートし、デバイス上での推論とトレーニングで業界をリードするパフォーマンスを発揮します。 現在、MNNは、淘宝網、Tmall、Youku、Dingtalk、XianyuなどのAlibaba Incの20以上のアプリに統合されており、ライブブロードキャスト、短いビデオキャプチャ、検索の推奨、製品などの70以上の使用シナリオをカバーしています。画像による検索、インタラクティブマーケティング、株式分配、セキュリティリスク管理。 さらに、MNNはIoTなどの組み込みデバイスでも使用されます。 MNN Workbenchは、事前トレーニング済みモデル、視覚化されたトレーニングツール、およびデバイスへのモデルのワンクリック展開を提供するMNNのホームページからダウンロードできます。 Androidプラットフォーム、コアサイズは約400KB、OpenCLは約400KB、Vulkanは約400KBです。 複数のデバイスでのハイブリッドコンピューティングをサポートします。 現在、CPUとGPUをサポートしています。
特徴
- ARM CPUを最大限に活用するために、多くの最適化されたアセンブリコードを使用してコアコンピューティングを実装します
- iOSの場合、GPUアクセラレーション(メタル)をオンにすることができます。これは、AppleのネイティブCoreMLよりも高速です。
- Androidの場合、OpenCL、Vulkan、およびOpenGLが利用可能であり、メインストリームGPU(AdrenoおよびMali)用に詳細に調整されています。
- 畳み込みおよび転置畳み込みアルゴリズムは効率的で安定しています。 Winograd畳み込みアルゴリズムは、3x3-> 7x7などの対称畳み込みを改善するために広く使用されています。
- FP8.2半精度計算をサポートする新しいアーキテクチャARMv16の速度がXNUMX倍に向上
- デバイス向けに最適化されており、依存関係はなく、モバイルデバイスやさまざまな組み込みデバイスに簡単に導入できます
プログラミング言語
C + +
カテゴリー
これは、https://sourceforge.net/projects/mnn.mirror/からも取得できるアプリケーションです。 無料のオペレーティングシステムのXNUMXつから最も簡単な方法でオンラインで実行するために、OnWorksでホストされています。