LLaMA 3라는 이름의 리눅스 앱으로, 최신 버전은 llama3sourcecode.tar.gz 파일로 다운로드할 수 있습니다. 워크스테이션용 무료 호스팅 제공업체인 OnWorks에서 온라인으로 실행할 수 있습니다.
LLaMA 3 with OnWorks라는 앱을 무료로 다운로드하여 온라인에서 실행해보세요.
이 앱을 실행하려면 다음 지침을 따르세요.
- 1. 이 애플리케이션을 PC에 다운로드했습니다.
- 2. 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX에 원하는 사용자 이름을 입력합니다.
- 3. 이러한 파일 관리자에서 이 응용 프로그램을 업로드합니다.
- 4. 이 웹사이트에서 OnWorks Linux 온라인 또는 Windows 온라인 에뮬레이터 또는 MACOS 온라인 에뮬레이터를 시작합니다.
- 5. 방금 시작한 OnWorks Linux OS에서 원하는 사용자 이름으로 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX로 이동합니다.
- 6. 응용 프로그램을 다운로드하여 설치하고 실행합니다.
스크린 샷
Ad
라마 3
기술
이 저장소는 이전에 Llama 3 모델 아티팩트와 시작 코드의 저장소였으며, 다양한 매개변수 크기에 걸쳐 사전 학습되고 명령어 튜닝된 변형을 포함합니다. 이 저장소는 개발자가 로컬 및 공통 서빙 스택에서 모델을 미세 조정하거나 실행할 수 있도록 가중치, 라이선스 및 빠른 시작 예제의 공개 패키징을 도입했습니다. Llama 스택이 발전함에 따라 Meta는 저장소를 통합하고 이 저장소를 더 이상 사용되지 않는 저장소로 표시하여 사용자에게 모델, 유틸리티 및 문서를 위한 새로운 중앙 허브를 안내했습니다. 더 이상 사용되지 않는 저장소임에도 불구하고, 이 저장소는 전환 경로를 문서화하고 Llama 3 릴리스가 현재 생태계에 어떻게 매핑되는지를 명확히 설명하는 참조 자료를 보존합니다. 실질적으로 추론 및 미세 조정을 위한 배포 및 시작 코드를 표준화함으로써 Llama 2와 이후 Llama 릴리스 간의 다리 역할을 했습니다. 팀에서는 여전히 이 저장소를 버전 계보 및 마이그레이션 노트를 위한 과거 참조 자료로 활용합니다.
기능
- Llama 3를 사용한 추론 및 미세 조정을 위한 시작 코드
- 지연 시간과 품질의 균형을 맞추기 위한 다양한 모델 크기
- 현재 Llama 저장소 및 툴링에 대한 마이그레이션 포인터
- 상업 및 연구 시나리오에 대한 명확한 라이센스 및 사용 지침
- 제공 및 평가를 위한 예제 워크플로
- 모델 계보 및 릴리스 노트에 대한 역사적 참조
프로그래밍 언어
Python
카테고리
이 애플리케이션은 https://sourceforge.net/projects/llama-3.mirror/에서도 다운로드할 수 있습니다. OnWorks에 호스팅되어 무료 운영 체제 중 하나에서 가장 쉽게 온라인에서 실행할 수 있도록 설계되었습니다.