Linux용 LLaMA-Factory 다운로드

이 앱은 LLaMA-Factory라는 이름의 Linux 앱이며, 최신 릴리스는 v0.9.3_Llama4, Gemma3, Qwen3, InternVL3, Qwen2.5-Omnisourcecode.tar.gz 형식으로 다운로드할 수 있습니다. 워크스테이션용 무료 호스팅 제공업체인 OnWorks에서 온라인으로 실행할 수 있습니다.

 
 

LLaMA-Factory with OnWorks라는 앱을 무료로 다운로드하여 온라인에서 실행해보세요.

이 앱을 실행하려면 다음 지침을 따르세요.

- 1. 이 애플리케이션을 PC에 다운로드했습니다.

- 2. 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX에 원하는 사용자 이름을 입력합니다.

- 3. 이러한 파일 관리자에서 이 응용 프로그램을 업로드합니다.

- 4. 이 웹사이트에서 OnWorks Linux 온라인 또는 Windows 온라인 에뮬레이터 또는 MACOS 온라인 에뮬레이터를 시작합니다.

- 5. 방금 시작한 OnWorks Linux OS에서 원하는 사용자 이름으로 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX로 이동합니다.

- 6. 응용 프로그램을 다운로드하여 설치하고 실행합니다.

스크린샷:


LLaMA-팩토리


설명 :

LLaMA-Factory는 Meta의 LLaMA 언어 모델을 위한 미세 조정 및 학습 프레임워크입니다. 연구자와 개발자는 고급 최적화 기법을 사용하여 LLaMA 모델을 효율적으로 학습하고 맞춤 설정할 수 있습니다.



기능

  • 특정 작업에 대한 LLaMA 모델의 미세 조정을 지원합니다.
  • 리소스 사용량을 줄이기 위해 LoRA 및 QLoRA를 사용하여 최적화된 교육
  • 더 빠른 설정을 위해 미리 구성된 교육 스크립트를 제공합니다.
  • 확장성을 위한 다중 GPU 및 분산 학습 지원
  • Hugging Face Transformers와 완벽하게 통합됩니다.
  • 효율적인 계산을 위해 FP16 및 BF16 정밀도와 호환


프로그래밍 언어

Python


카테고리

인공지능, 대규모 언어 모델(LLM)

이 애플리케이션은 https://sourceforge.net/projects/llama-factory.mirror/에서도 다운로드할 수 있습니다. OnWorks에 호스팅되어 무료 운영 체제 중 하나에서 가장 쉽게 온라인에서 실행할 수 있습니다.



최신 Linux 및 Windows 온라인 프로그램


Windows 및 Linux용 소프트웨어 및 프로그램 다운로드 카테고리