これはMACEという名前のLinuxアプリで、最新リリースはv1.1.1.zipとしてダウンロードできます。 ワークステーション用の無料ホスティングプロバイダーOnWorksでオンラインで実行できます。
OnWorksでMACEという名前のこのアプリを無料でダウンロードしてオンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。
-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードし、インストールして実行します。
スクリーンショットは
Ad
メース
DESCRIPTION
モバイルAIコンピューティングエンジン(または略してMACE)は、Android、iOS、Linux、およびWindowsデバイスでのモバイルヘテロジニアスコンピューティング用に最適化されたディープラーニング推論フレームワークです。 ランタイムはNEON、OpenCL、Hexagonで最適化され、畳み込み演算を高速化するためにWinogradアルゴリズムが導入されています。 初期化もより高速になるように最適化されています。 big.LITTLEスケジューリング、Adreno GPUヒントなどのチップ依存の電源オプションは、高度なAPIとして含まれています。 モデルを実行するときに、UIの応答性の保証が義務付けられる場合があります。 OpenCLカーネルを自動的に小さな単位に分割するようなメカニズムが導入され、UIレンダリングタスクのプリエンプションが向上します。 グラフレベルのメモリ割り当ての最適化とバッファの再利用がサポートされています。 コアライブラリは、ライブラリのフットプリントを小さく保つために、外部の依存関係を最小限に抑えようとします。
オプション
- モデル保護は、設計当初から最優先事項でした
- モデルをC ++コードに変換したり、文字通りの難読化を行ったりするなど、さまざまな手法が導入されています。
- 最近のQualcomm、MediaTek、Pineconeおよびその他のARMベースのチップの良好なカバレッジ
- CPUランタイムはAndroid、iOS、Linuxをサポートしています
- TensorFlow、Caffe、ONNXモデル形式がサポートされています。
- ランタイムはNEON、OpenCL、Hexagonで最適化されています
プログラミング言語
C + +
カテゴリー
これは、https://sourceforge.net/projects/mace.mirror/からも取得できるアプリケーションです。 無料のオペレーティングシステムのXNUMXつから最も簡単な方法でオンラインで実行するために、OnWorksでホストされています。