Linux용 Fairseq 다운로드

이것은 최신 릴리스를 v0.10.2.zip으로 다운로드할 수 있는 Fairseq라는 Linux 앱입니다. 워크스테이션용 무료 호스팅 제공업체 OnWorks에서 온라인으로 실행할 수 있습니다.

 
 

무료로 OnWorks와 함께 Fairseq라는 이 앱을 온라인으로 다운로드하여 실행하십시오.

이 앱을 실행하려면 다음 지침을 따르세요.

- 1. 이 애플리케이션을 PC에 다운로드했습니다.

- 2. 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX에 원하는 사용자 이름을 입력합니다.

- 3. 이러한 파일 관리자에서 이 응용 프로그램을 업로드합니다.

- 4. 이 웹사이트에서 OnWorks Linux 온라인 또는 Windows 온라인 에뮬레이터 또는 MACOS 온라인 에뮬레이터를 시작합니다.

- 5. 방금 시작한 OnWorks Linux OS에서 원하는 사용자 이름으로 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX로 이동합니다.

- 6. 응용 프로그램을 다운로드하여 설치하고 실행합니다.

스크린샷:


페어섹


설명 :

Fairseq(-py)는 연구원과 개발자가 번역, 요약, 언어 모델링 및 기타 텍스트 생성 작업을 위한 사용자 지정 모델을 훈련할 수 있도록 하는 시퀀스 모델링 도구 키트입니다. 다양한 시퀀스 모델링 논문의 참조 구현을 제공합니다. Microsoft와 Google의 최근 작업에 따르면 데이터 병렬 작업자 간에 모델 매개변수와 옵티마이저 상태를 분할하여 데이터 병렬 교육을 훨씬 더 효율적으로 만들 수 있습니다. 이러한 아이디어는 Fairscale에서 제공하는 새로운 FSDP(FullyShardedDataParallel) 래퍼에 캡슐화되어 있습니다. Fairseq는 사용자 제공 플러그인을 통해 확장할 수 있습니다. 모델은 신경망 아키텍처를 정의하고 학습 가능한 모든 매개변수를 캡슐화합니다. 기준은 모델 출력과 목표가 주어지면 손실 함수를 계산합니다. 작업은 사전을 저장하고 데이터 집합에 대한 로드/반복, 모델/기준 초기화 및 손실 계산을 위한 도우미를 제공합니다.



특징

  • 하나의 머신 또는 여러 머신에 걸친 다중 GPU 교육(데이터 및 모델 병렬)
  • 다중 검색 알고리즘이 구현된 CPU 및 GPU 모두에서 빠른 생성
  • 그라디언트 누적으로 단일 GPU에서도 대규모 미니 배치로 훈련 가능
  • 혼합 정밀 훈련(NVIDIA 텐서 코어에서 더 적은 GPU 메모리로 더 빠르게 훈련)
  • 새로운 모델, 기준, 작업, 옵티마이저 및 학습률 스케줄러를 쉽게 등록
  • 코드, 명령줄 및 파일 기반 구성의 조합을 허용하는 Hydra 기반의 유연한 구성


프로그래밍 언어

Python


카테고리

모델링, 인공지능, 연구

https://sourceforge.net/projects/fairseq.mirror/에서도 가져올 수 있는 애플리케이션입니다. 우리의 무료 운영 체제 중 하나에서 가장 쉬운 방법으로 온라인으로 실행하기 위해 OnWorks에서 호스팅되었습니다.



최신 Linux 및 Windows 온라인 프로그램


Windows 및 Linux용 소프트웨어 및 프로그램 다운로드 카테고리