LLaMA Models download for Linux

This is the Linux app named LLaMA Models whose latest release can be downloaded as v0.2.0sourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.

 
 

LLaMA Models with OnWorks というアプリを無料でダウンロードしてオンラインで実行します。

このアプリを実行するには、次の手順に従ってください。

-1。このアプリケーションをPCにダウンロードしました。

--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。

-3。このアプリケーションをそのようなファイルマネージャにアップロードします。

-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。

-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。

-6。アプリケーションをダウンロードし、インストールして実行します。

スクリーンショット:


LLaMAモデル


説明:

このリポジトリは、Llama基盤モデルファミリーの中核ハブとして機能し、モデルカード、ライセンス、利用ポリシー、そしてリリース間の推論と微調整をサポートするユーティリティを統合しています。また、他のスタックコンポーネント(安全ツールや開発者SDKなど)を結び付け、モデルバリアントとその使用目的に関する標準的なリファレンスを提供します。プロジェクトの課題とリリースは、ガイダンス、ユーティリティ、互換性に関するメモが公開される、エコシステムの活発な調整ポイントとして機能しています。コードやデモ(推論カーネルやクックブックコンテンツなど)を含む個別のリポジトリを補完するため、信頼できるメタデータと仕様をここに保管しています。モデルの系統とサイズのバリアントは外部(Llama 3.x以降など)で文書化されており、このリポジトリは「唯一の真実の源」となるリンクとユーティリティを提供します。実際には、チームはバリアントの選択、ライセンスの調整、デプロイメント用のヘルパースクリプトへの配線を行う際に、llama-modelsをリファレンスとして使用しています。



オプション

  • 一元化されたモデルカードとライセンス情報
  • Llamaモデル用のユーティリティとリファレンススクリプト
  • 推論および微調整スタックへの標準的なポインタ
  • 問題とドキュメントを通じたエコシステムの調整
  • Llamaのリリースとバリアント間の互換性に関する注意事項
  • ポリシーと使用ガイドラインの真実の情報源


プログラミング言語

Python


カテゴリー

大規模言語モデル (LLM)

このアプリケーションは、https://sourceforge.net/projects/llama-models.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。



最新のLinuxおよびWindowsオンラインプログラム


WindowsおよびLinux用のソフトウェアとプログラムをダウンロードするためのカテゴリ