Linux用llama2.cのダウンロード

これはllama2.cという名前のLinuxアプリケーションで、最新リリースはllama2.csourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。

 
 

OnWorks を使用して、llama2.c というこのアプリを無料でダウンロードしてオンラインで実行します。

このアプリを実行するには、次の手順に従ってください。

-1。このアプリケーションをPCにダウンロードしました。

--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。

-3。このアプリケーションをそのようなファイルマネージャにアップロードします。

-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。

-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。

-6。アプリケーションをダウンロードし、インストールして実行します。

スクリーンショット:


ラマ2.c


説明:

llama2.c は、Llama 2 言語モデルアーキテクチャの最小限の実装であり、完全に純粋な C で実行されるように設計されています。Andrej Karpathy によって作成されたこのプロジェクトは、外部依存なしで小さな Llama 2 モデルで推論を実行するための教育的で軽量なフレームワークを提供します。完全なトレーニングおよび推論パイプラインを提供します。モデルは PyTorch でトレーニングし、後で簡潔な 700 行の C プログラム (run.c) を使用して実行できます。技術的には Meta の公式 Llama 2 モデルを読み込むことができますが、現在のサポートは fp32 精度に制限されているため、実用的には最大約 7 億パラメータのモデルに制限されます。llama2.c の目標は、コンパクトで透過的な実装が、小さなモデルでも意味のある推論を実行できることを示し、シンプルさ、明快さ、およびアクセシビリティを強調することです。このプロジェクトは、nanoGPT から学んだ教訓を基に構築され、llama.cpp からインスピレーションを得ており、大規模なパフォーマンスよりも最小限の実装と教育的価値に重点を置いています。



オプション

  • トレーニングと推論の両方にLlama 2アーキテクチャを完全実装
  • コンパクトな700行のCベースの推論エンジン(run.c)を提供します。
  • PyTorchでトレーニングし、Cで直接モデルを実行できる
  • 小規模な教育規模のLLM向けにfp32モデル精度をサポート
  • 簡単に調査および変更できるように、クリーンで依存関係のない実装を提供します。
  • llama.cpp にインスパイアされていますが、シンプルさとミニマリズムを重視して設計されています


プログラミング言語

C、Python


カテゴリー

大規模言語モデル (LLM)

このアプリケーションは、https://sourceforge.net/projects/llama2-c.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。



最新のLinuxおよびWindowsオンラインプログラム


WindowsおよびLinux用のソフトウェアとプログラムをダウンロードするためのカテゴリ