英語フランス語スペイン語

Ad


OnWorksファビコン

Linux 用 LiteLLM のダウンロード

LiteLLM Linux アプリを無料でダウンロードして、Ubuntu オンライン、Fedora オンライン、または Debian オンラインでオンラインで実行します

これは LiteLLM という名前の Linux アプリで、最新リリースは v0.11.1sourcecode.zip としてダウンロードできます。 ワークステーション用の無料ホスティング プロバイダー OnWorks でオンラインで実行できます。

LiteLLM with OnWorks という名前のこのアプリをオンラインで無料でダウンロードして実行します。

このアプリを実行するには、次の手順に従ってください。

-1。このアプリケーションをPCにダウンロードしました。

--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。

-3。このアプリケーションをそのようなファイルマネージャにアップロードします。

-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。

-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。

-6。アプリケーションをダウンロードし、インストールして実行します。

スクリーンショットは

Ad


LiteLLM


DESCRIPTION

OpenAI 形式 [Anthropic、Huggingface、Cohere、Azure OpenAI など] を使用してすべての LLM API を呼び出します。liteLLM はモデル応答のストリーミング バックをサポートし、stream=True を渡して応答でストリーミング イテレーターを取得します。 ストリーミングは、OpenAI、Azure、Anthropic、および Huggingface モデルでサポートされています。



特徴

  • 入力をプロバイダーの補完と埋め込みエンドポイントに変換する
  • 一貫した出力が保証され、テキスト応答はいつでも利用可能になります
  • 例外マッピング
  • プロバイダー間で共通の例外は OpenAI 例外タイプにマップされます
  • LiteLLM クライアント - デバッグと新しい LLM のワンクリック追加
  • liteLLM はモデル応答のストリーミングバックをサポートします


プログラミング言語

Python


カテゴリー

大規模言語モデル (LLM)

これは、https://sourceforge.net/projects/litellm.mirror/ から取得できるアプリケーションです。 無料のオペレーティング システムの XNUMX つから最も簡単な方法でオンラインで実行できるように、OnWorks でホストされています。


無料のサーバーとワークステーション

Windows と Linux のアプリをダウンロード

Linuxコマンド

Ad