これはLLaMA 3というLinuxアプリケーションで、最新リリースはllama3sourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。
LLaMA 3 というこのアプリを OnWorks で無料でダウンロードしてオンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。
-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードし、インストールして実行します。
スクリーンショット:
ラマ3
説明:
このリポジトリは、Llama 3 のモデル成果物と入門コードの元本拠地であり、複数のパラメータサイズにわたる事前学習済みおよび命令調整済みのバリアントをカバーしています。このリポジトリでは、重み、ライセンス、クイックスタート例の公開パッケージが導入され、開発者がモデルをローカルおよび共通のサービングスタックで微調整または実行するのに役立ちました。Llama スタックが進化するにつれて、Meta はリポジトリを統合し、このリポジトリを非推奨としてマークし、モデル、ユーティリティ、ドキュメントのための新しい集中型ハブをユーザーに示しました。非推奨リポジトリであっても、移行パスを文書化し、Llama 3 リリースが現在のエコシステムにどのようにマッピングされるかを明確にする参照を保持しています。実際には、ディストリビューションと推論および微調整用のスターターコードを標準化することで、Llama 2 以降の Llama リリース間の橋渡しとして機能しました。チームは今でも、これをバージョンの系統と移行メモの歴史的参考資料として扱っています。
オプション
- Llama 3 による推論と微調整のためのスターターコード
- レイテンシと品質のバランスをとるための複数のモデルサイズ
- 現在のLlamaリポジトリとツールへの移行に関する指針
- 商業および研究シナリオ向けの明確なライセンスと使用ガイダンス
- 提供と評価のワークフローの例
- モデルの系譜とリリースノートの履歴参照
プログラミング言語
Python
カテゴリー
このアプリケーションは、https://sourceforge.net/projects/llama-3.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。