これはOptScaleというLinuxアプリで、最新リリースは2025060402-publicsourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。
OptScale with OnWorks というアプリを無料でダウンロードしてオンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。
-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードし、インストールして実行します。
スクリーンショット:
オプトスケール
説明:
ML/AI やあらゆる種類のワークロードを、最適なパフォーマンスとインフラストラクチャコストで実行します。OptScale を使用すると、ML チームは、クラウドとインフラストラクチャリソースに関連するコストを効率的に管理し、最小限に抑えながら、並行して実行される ML/AI 実験の数を増やすことができます。OptScale の MLOps 機能には、ML モデルリーダーボード、パフォーマンスのボトルネックの特定と最適化、ML/AI 実験の一括実行、実験の追跡などが含まれます。このソリューションにより、ML/AI エンジニアは、定義されたインフラストラクチャ予算内で、データセットとハイパーパラメータの条件に基づいて自動実験を実行できます。最高のクラウドコスト最適化エンジンを備えた認定 FinOps ソリューションは、適正サイズの推奨事項、リザーブドインスタンス/Savings Plans、その他多数の最適化シナリオを提供します。OptScale を使用すると、ユーザーはクラウドリソースの使用状況の完全な透明性、異常検出、予算超過を回避するための広範な機能を利用できます。
オプション
- MLOps 機能
- ドキュメントが利用可能
- FinOpsの導入
- 利用可能な例
- ML/AIタスクのプロファイリングと最適化
- PaaS および SaaS の計測とプロファイリング
- ML/AI実験の追跡
プログラミング言語
Python
カテゴリー
このアプリケーションは、https://sourceforge.net/projects/optscale.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。