Amazon Best VPN GoSearch

OnWorksファビコン

Linux 用の LLamaSharp ダウンロード

LLamaSharp Linux アプリを無料でダウンロードして、Ubuntu オンライン、Fedora オンライン、または Debian オンラインでオンラインで実行します

これはLLamaSharpというLinuxアプリで、最新リリースはv0.25.0sourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。

OnWorks を使用して、LLamaSharp という名前のこのアプリをオンラインで無料でダウンロードして実行します。

このアプリを実行するには、次の手順に従ってください。

-1。このアプリケーションをPCにダウンロードしました。

--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。

-3。このアプリケーションをそのようなファイルマネージャにアップロードします。

-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。

-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。

-6。アプリケーションをダウンロードし、インストールして実行します。

スクリーンショットは

Ad


ラマシャープ


DESCRIPTION

llama.cpp の C#/.NET バインディング。 LLaMa モデルを推論し、ローカル環境にデプロイするための API を提供します。 Windows、Linux、MAC の両方で動作し、llama.cpp を自分でコンパイルする必要はありません。 パフォーマンスはllama.cppに近いです。 さらに、BotSharp などの他のプロジェクトとの統合を提供し、より高レベルのアプリケーションと UI を提供します。



オプション

  • モデル推論とチャットセッション
  • LLamaSharp は、LLamaExecutor と ChatSession という XNUMX つの推論を実行する方法を提供します。
  • LLamaSharp を使用すると、C++ プロジェクトをコンパイルしたり、モデルを量子化するスクリプトを実行したりする必要はなく、代わりに C# で実行するだけです。
  • 私たちは以下の統合を提供します。 ASP.NET
  • 埋め込みの生成、トークン化、および非トークン化
  • LLaMa モデルの推論


プログラミング言語

C#


カテゴリー

大規模言語モデル(LLM)、AIモデル、LLM推論

これは、https://sourceforge.net/projects/llamasharp.mirror/ から取得できるアプリケーションです。 無料のオペレーティング システムの XNUMX つから最も簡単な方法でオンラインで実行できるように、OnWorks でホストされています。


無料のサーバーとワークステーション

Windows と Linux のアプリをダウンロード

Linuxコマンド

Ad




×
Advertisement
❤️ここでショッピング、予約、購入してください。料金はかかりません。これにより、サービスが無料で維持されます。