これはLepton AIというWindowsアプリで、最新リリースは0.26.6sourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。
Lepton AI with OnWorks というアプリを無料でダウンロードしてオンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOSOnWorksオンラインエミュレーターを起動しますが、Windowsオンラインエミュレーターの方が優れています。
-5。起動したばかりのOnWorksWindows OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードしてインストールします。
-7.LinuxディストリビューションソフトウェアリポジトリからWineをダウンロードします。 インストールしたら、アプリをダブルクリックして、Wineで実行できます。 また、人気のあるWindowsプログラムやゲームのインストールに役立つWine上の豪華なインターフェイスであるPlayOnLinuxを試すこともできます。
WineはLinux上でWindowsソフトウェアを実行する方法ですが、Windowsは必要ありません。 Wineは、任意のLinuxデスクトップでWindowsプログラムを直接実行できるオープンソースのWindows互換性レイヤーです。 基本的に、Wineは、実際にWindowsを必要とせずに、これらすべてのWindowsアプリケーションを実行できるように、十分な数のWindowsを最初から再実装しようとしています。
スクリーンショットは
Ad
レプトンAI
DESCRIPTION
AIサービスの構築を簡素化するPythonフレームワーク。最先端のAI推論とトレーニング、比類のないクラウドネイティブエクスペリエンス、そして最高レベルのGPUインフラストラクチャを備えています。包括的なヘルスチェックと自動修復により、99.9%の稼働率を保証します。
オプション
- Pythonの抽象化Photonを使用すると、数行のコードで研究やモデリングのコードをサービスに変換できます。
- 数行のコードでHuggingFaceのようなモデルを起動するためのシンプルな抽象化
- Llama、SDXL、Whisperなどの一般的なモデルの事前構築済みサンプル
- 自動バッチ処理、バックグラウンド ジョブなどの AI に合わせたバッテリーが含まれています。
- ネイティブのPython関数のようにサービスを自動的に呼び出すクライアント
- クラウド環境にすぐに出荷できる Python 構成仕様
プログラミング言語
Python
カテゴリー
このアプリケーションは、https://sourceforge.net/projects/lepton-ai.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。