これはLLamaSharpというWindowsアプリで、最新リリースはv0.25.0sourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。
OnWorks を使用して、LLamaSharp という名前のこのアプリをオンラインで無料でダウンロードして実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOSOnWorksオンラインエミュレーターを起動しますが、Windowsオンラインエミュレーターの方が優れています。
-5。起動したばかりのOnWorksWindows OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードしてインストールします。
-7.LinuxディストリビューションソフトウェアリポジトリからWineをダウンロードします。 インストールしたら、アプリをダブルクリックして、Wineで実行できます。 また、人気のあるWindowsプログラムやゲームのインストールに役立つWine上の豪華なインターフェイスであるPlayOnLinuxを試すこともできます。
WineはLinux上でWindowsソフトウェアを実行する方法ですが、Windowsは必要ありません。 Wineは、任意のLinuxデスクトップでWindowsプログラムを直接実行できるオープンソースのWindows互換性レイヤーです。 基本的に、Wineは、実際にWindowsを必要とせずに、これらすべてのWindowsアプリケーションを実行できるように、十分な数のWindowsを最初から再実装しようとしています。
スクリーンショットは
Ad
ラマシャープ
DESCRIPTION
llama.cpp の C#/.NET バインディング。 LLaMa モデルを推論し、ローカル環境にデプロイするための API を提供します。 Windows、Linux、MAC の両方で動作し、llama.cpp を自分でコンパイルする必要はありません。 パフォーマンスはllama.cppに近いです。 さらに、BotSharp などの他のプロジェクトとの統合を提供し、より高レベルのアプリケーションと UI を提供します。
オプション
- モデル推論とチャットセッション
- LLamaSharp は、LLamaExecutor と ChatSession という XNUMX つの推論を実行する方法を提供します。
- LLamaSharp を使用すると、C++ プロジェクトをコンパイルしたり、モデルを量子化するスクリプトを実行したりする必要はなく、代わりに C# で実行するだけです。
- 私たちは以下の統合を提供します。 ASP.NET
- 埋め込みの生成、トークン化、および非トークン化
- LLaMa モデルの推論
プログラミング言語
C#
カテゴリー
これは、https://sourceforge.net/projects/llamasharp.mirror/ から取得できるアプリケーションです。 無料のオペレーティング システムの XNUMX つから最も簡単な方法でオンラインで実行できるように、OnWorks でホストされています。