This is the Linux app named LLaMA Models whose latest release can be downloaded as v0.2.0sourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
LLaMA Models with OnWorks라는 앱을 무료로 다운로드하여 온라인에서 실행해보세요.
이 앱을 실행하려면 다음 지침을 따르세요.
- 1. 이 애플리케이션을 PC에 다운로드했습니다.
- 2. 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX에 원하는 사용자 이름을 입력합니다.
- 3. 이러한 파일 관리자에서 이 응용 프로그램을 업로드합니다.
- 4. 이 웹사이트에서 OnWorks Linux 온라인 또는 Windows 온라인 에뮬레이터 또는 MACOS 온라인 에뮬레이터를 시작합니다.
- 5. 방금 시작한 OnWorks Linux OS에서 원하는 사용자 이름으로 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX로 이동합니다.
- 6. 응용 프로그램을 다운로드하여 설치하고 실행합니다.
스크린샷:
LLaMA 모델
설명 :
이 저장소는 Llama 기반 모델 제품군의 중앙 허브 역할을 하며, 모델 카드, 라이선스 및 사용 정책, 그리고 여러 릴리스에서 추론 및 미세 조정을 지원하는 유틸리티를 통합합니다. 안전 도구 및 개발자 SDK와 같은 다른 스택 구성 요소를 연결하고 모델 변형 및 사용 목적에 대한 표준 참조를 제공합니다. 이 프로젝트의 이슈와 릴리스는 지침, 유틸리티 및 호환성 정보가 게시되는 생태계에서 활발하게 사용되는 조정 지점을 반영합니다. 코드와 데모(예: 추론 커널 또는 쿡북 콘텐츠)를 제공하는 별도의 저장소를 보완하기 위해 신뢰할 수 있는 메타데이터와 사양을 여기에 보관합니다. 모델 계보 및 크기 변형은 외부에 문서화되어 있으며(예: Llama 3.x 이상), 이 저장소는 "단일 소스의 진실" 링크와 유틸리티를 제공합니다. 실제로 팀은 변형을 선택하고, 라이선스를 조정하고, 배포를 위한 도우미 스크립트를 연결할 때 llama-models를 참조로 사용합니다.
기능
- 중앙화된 모델 카드 및 라이선스 정보
- Llama 모델을 위한 유틸리티 및 참조 스크립트
- 추론 및 미세 조정 스택에 대한 표준 포인터
- 이슈 및 문서화를 통한 생태계 조정
- Llama 릴리스 및 변형에 대한 호환성 참고 사항
- 정책 및 사용 지침에 대한 진실의 원천
프로그래밍 언어
Python
카테고리
이 애플리케이션은 https://sourceforge.net/projects/llama-models.mirror/에서도 다운로드할 수 있습니다. OnWorks에 호스팅되어 무료 운영 체제 중 하나에서 가장 쉽게 온라인에서 실행할 수 있도록 설계되었습니다.