これは LLamaSharp という名前の Linux アプリで、最新リリースは v0.6.0-followmajorllama.cppchangessourcecode.zip としてダウンロードできます。 ワークステーション用の無料ホスティング プロバイダー OnWorks でオンラインで実行できます。
OnWorks を使用して、LLamaSharp という名前のこのアプリをオンラインで無料でダウンロードして実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。
-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードし、インストールして実行します。
スクリーンショットは
Ad
ラマシャープ
DESCRIPTION
llama.cpp の C#/.NET バインディング。 LLaMa モデルを推論し、ローカル環境にデプロイするための API を提供します。 Windows、Linux、MAC の両方で動作し、llama.cpp を自分でコンパイルする必要はありません。 パフォーマンスはllama.cppに近いです。 さらに、BotSharp などの他のプロジェクトとの統合を提供し、より高レベルのアプリケーションと UI を提供します。
特徴
- モデル推論とチャットセッション
- LLamaSharp は、LLamaExecutor と ChatSession という XNUMX つの推論を実行する方法を提供します。
- LLamaSharp を使用すると、C++ プロジェクトをコンパイルしたり、モデルを量子化するスクリプトを実行したりする必要はなく、代わりに C# で実行するだけです。
- 私たちは以下の統合を提供します。 ASP.NET
- 埋め込みの生成、トークン化、および非トークン化
- LLaMa モデルの推論
プログラミング言語
C#
カテゴリー
これは、https://sourceforge.net/projects/llamasharp.mirror/ から取得できるアプリケーションです。 無料のオペレーティング システムの XNUMX つから最も簡単な方法でオンラインで実行できるように、OnWorks でホストされています。