This is the Linux app named Colossal-AI whose latest release can be downloaded as Versionv0.5.0ReleaseToday!sourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
OnWorks와 함께 Colossal-AI라는 이 앱을 무료로 다운로드하여 온라인에서 실행하십시오.
이 앱을 실행하려면 다음 지침을 따르세요.
- 1. 이 애플리케이션을 PC에 다운로드했습니다.
- 2. 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX에 원하는 사용자 이름을 입력합니다.
- 3. 이러한 파일 관리자에서 이 응용 프로그램을 업로드합니다.
- 4. 이 웹사이트에서 OnWorks Linux 온라인 또는 Windows 온라인 에뮬레이터 또는 MACOS 온라인 에뮬레이터를 시작합니다.
- 5. 방금 시작한 OnWorks Linux OS에서 원하는 사용자 이름으로 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX로 이동합니다.
- 6. 응용 프로그램을 다운로드하여 설치하고 실행합니다.
스크린 샷
Ad
거대 AI
기술
Transformer 아키텍처는 컴퓨터 비전 및 자연어 처리와 같은 영역에서 딥 러닝 모델의 성능을 향상시켰습니다. 더 나은 성능과 함께 더 큰 모델 크기가 제공됩니다. 이것은 GPU와 같은 현재 가속기 하드웨어의 메모리 벽에 문제를 부과합니다. 단일 GPU 또는 단일 시스템에서 Vision Transformer, BERT 및 GPT와 같은 대규모 모델을 교육하는 것은 결코 이상적이지 않습니다. 분산 환경에서 모델을 교육해야 한다는 긴급한 요구가 있습니다. 그러나 분산 교육, 특히 모델 병렬 처리에는 종종 컴퓨터 시스템 및 아키텍처에 대한 도메인 전문 지식이 필요합니다. AI 연구원이 모델에 복잡한 분산 교육 솔루션을 구현하는 것은 여전히 어려운 과제입니다. Colossal-AI는 병렬 구성 요소 모음을 제공합니다. 노트북에서 모델을 작성하는 것처럼 분산 딥 러닝 모델을 작성할 수 있도록 지원하는 것을 목표로 합니다.
기능
- 이기종 메모리 관리
- 동일한 하드웨어에서 24배 더 큰 모델 크기
- DockerHub에서 가져오기
- 직접 구축
- 병렬화 전략
- 구성 파일 기반 병렬 처리
프로그래밍 언어
Python
카테고리
이것은 https://sourceforge.net/projects/colossal-ai.mirror/에서도 가져올 수 있는 애플리케이션입니다. 무료 운영 체제 중 하나에서 가장 쉬운 방법으로 온라인으로 실행하기 위해 OnWorks에서 호스팅되었습니다.