Windows 用 OpenLLM のダウンロード

これは OpenLLM という名前の Windows アプリで、最新リリースは v0.3.9sourcecode.zip としてダウンロードできます。 ワークステーション用の無料ホスティング プロバイダー OnWorks でオンラインで実行できます。

 
 

OpenLLM with OnWorks という名前のこのアプリをオンラインで無料でダウンロードして実行します。

このアプリを実行するには、次の手順に従ってください。

-1。このアプリケーションをPCにダウンロードしました。

--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。

-3。このアプリケーションをそのようなファイルマネージャにアップロードします。

-4。このWebサイトからOSOnWorksオンラインエミュレーターを起動しますが、Windowsオンラインエミュレーターの方が優れています。

-5。起動したばかりのOnWorksWindows OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。

-6。アプリケーションをダウンロードしてインストールします。

-7.LinuxディストリビューションソフトウェアリポジトリからWineをダウンロードします。 インストールしたら、アプリをダブルクリックして、Wineで実行できます。 また、人気のあるWindowsプログラムやゲームのインストールに役立つWine上の豪華なインターフェイスであるPlayOnLinuxを試すこともできます。

WineはLinux上でWindowsソフトウェアを実行する方法ですが、Windowsは必要ありません。 Wineは、任意のLinuxデスクトップでWindowsプログラムを直接実行できるオープンソースのWindows互換性レイヤーです。 基本的に、Wineは、実際にWindowsを必要とせずに、これらすべてのWindowsアプリケーションを実行できるように、十分な数のWindowsを最初から再実装しようとしています。

スクリーンショット:


OpenLLM


説明:

本番環境で大規模言語モデル (LLM) を操作するためのオープン プラットフォーム。 LLM を簡単に微調整、提供、展開、監視できます。 OpenLLM を使用すると、オープンソースの大規模言語モデルを使用して推論を実行し、クラウドまたはオンプレミスにデプロイして、強力な AI アプリを構築できます。 組み込みは、Llama 2、StableLM、Falcon、Dolly、Flan-T5、ChatGLM、StarCoder などを含む、幅広いオープンソース LLM とモデル ランタイムをサポートします。 XNUMX つのコマンドで RESTful API または gRPC 経由で LLM を提供し、WebUI、CLI、Python/Javascript クライアント、または任意の HTTP クライアント経由でクエリを実行します。



オプション

  • LLM の微調整、提供、導入、監視を簡単に行うことができます
  • 最先端の LLM
  • 柔軟な API
  • 自由に構築
  • 導入の合理化
  • 独自の LLM を持ち込む


プログラミング言語

Python


カテゴリー

大規模言語モデル (LLM)

これは、https://sourceforge.net/projects/openllm.mirror/ から取得できるアプリケーションです。 無料のオペレーティング システムの XNUMX つから最も簡単な方法でオンラインで実行できるように、OnWorks でホストされています。



最新のLinuxおよびWindowsオンラインプログラム


WindowsおよびLinux用のソフトウェアとプログラムをダウンロードするためのカテゴリ