これは「Compute Library」という名前のWindowsアプリで、最新リリースはarm_compute-v52.1.0-android-aarch64-cpu-bin.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。
OnWorks で Compute Library というこのアプリを無料でダウンロードしてオンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOSOnWorksオンラインエミュレーターを起動しますが、Windowsオンラインエミュレーターの方が優れています。
-5。起動したばかりのOnWorksWindows OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードしてインストールします。
-7.LinuxディストリビューションソフトウェアリポジトリからWineをダウンロードします。 インストールしたら、アプリをダブルクリックして、Wineで実行できます。 また、人気のあるWindowsプログラムやゲームのインストールに役立つWine上の豪華なインターフェイスであるPlayOnLinuxを試すこともできます。
WineはLinux上でWindowsソフトウェアを実行する方法ですが、Windowsは必要ありません。 Wineは、任意のLinuxデスクトップでWindowsプログラムを直接実行できるオープンソースのWindows互換性レイヤーです。 基本的に、Wineは、実際にWindowsを必要とせずに、これらすべてのWindowsアプリケーションを実行できるように、十分な数のWindowsを最初から再実装しようとしています。
スクリーンショットは
Ad
コンピューティングライブラリ
DESCRIPTION
Compute Libraryは、SIMDテクノロジーを採用したArm CPUとGPUの両方に最適化されたコンピュータービジョンおよび機械学習関数のセットです。このライブラリは、他のオープンソースライブラリよりも優れたパフォーマンスを提供し、SVE2などの新しいArm®テクノロジーを即座にサポートします。
オプション
- 寛容なMITライセンスの下で利用可能なオープンソースソフトウェア
- CPUとGPU用の100以上の機械学習関数
- 複数の畳み込みアルゴリズム(GeMM、Winograd、FFT、直接および間接GeMM)
- 複数のデータ型をサポート: FP32、FP16、INT8、UINT8、BFLOAT16
- 主要なMLプリミティブのマイクロアーキテクチャ最適化
- 軽量バイナリを可能にする高度に設定可能なビルドオプション
- カーネル融合、高速演算の有効化、テクスチャ利用などの高度な最適化技術
- OpenCLチューナーとGeMM最適化ヒューリスティックを使用したデバイスとワークロード固有のチューニング
プログラミング言語
C + +
カテゴリー
このアプリケーションは、https://sourceforge.net/projects/compute-library.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。