LocalAI라는 이름의 리눅스 앱으로, 최신 버전은 v3.5.0sourcecode.zip으로 다운로드할 수 있습니다. 워크스테이션용 무료 호스팅 제공업체인 OnWorks에서 온라인으로 실행할 수 있습니다.
OnWorks가 포함된 LocalAI라는 앱을 무료로 온라인으로 다운로드하여 실행하세요.
이 앱을 실행하려면 다음 지침을 따르세요.
- 1. 이 애플리케이션을 PC에 다운로드했습니다.
- 2. 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX에 원하는 사용자 이름을 입력합니다.
- 3. 이러한 파일 관리자에서 이 응용 프로그램을 업로드합니다.
- 4. 이 웹사이트에서 OnWorks Linux 온라인 또는 Windows 온라인 에뮬레이터 또는 MACOS 온라인 에뮬레이터를 시작합니다.
- 5. 방금 시작한 OnWorks Linux OS에서 원하는 사용자 이름으로 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX로 이동합니다.
- 6. 응용 프로그램을 다운로드하여 설치하고 실행합니다.
스크린 샷
Ad
로컬AI
기술
자체 호스팅, 커뮤니티 기반, 로컬 OpenAI 호환 API입니다. 소비자급 하드웨어에서 LLM을 실행하는 OpenAI를 즉시 교체합니다. 무료 오픈 소스 OpenAI 대안. GPU가 필요하지 않습니다. ggml, GPTQ, onnx, TF 호환 모델(llama, gpt4all, rwkv, Whisper, vicuna, koala, gpt4all-j, cerebras, falcon, Dolly, starcoder 등)을 실행합니다. LocalAI는 로컬 추론을 위한 OpenAI API 사양과 호환되는 드롭인 대체 REST API입니다. 이를 통해 소비자급 하드웨어를 사용하여 로컬 또는 온프레미스에서 LLM을 실행할 수 있으며 ggml 형식과 호환되는 여러 모델 제품군을 지원합니다. GPU가 필요하지 않습니다.
기능
- 로컬, OpenAI 드롭인 대체 REST API
- GPU가 필요하지 않습니다
- 다양한 모델 지원
- 처음 로드된 후에는 더 빠른 추론을 위해 모델을 메모리에 로드한 상태로 유지합니다.
- 쉘아웃은 아니지만 더 빠른 추론과 더 나은 성능을 위해 C++ 바인딩을 사용합니다.
- 당신은 당신의 데이터를 소유
프로그래밍 언어
Go
카테고리
이는 https://sourceforge.net/projects/localai.mirror/에서도 가져올 수 있는 애플리케이션입니다. 무료 운영 시스템 중 하나에서 가장 쉬운 방법으로 온라인으로 실행하기 위해 OnWorks에서 호스팅되었습니다.