RLax라는 이름의 리눅스 앱으로, 최신 버전은 RLax0.1.8sourcecode.tar.gz 파일로 다운로드할 수 있습니다. 워크스테이션용 무료 호스팅 제공업체인 OnWorks에서 온라인으로 실행할 수 있습니다.
RLax with OnWorks라는 앱을 무료로 다운로드하여 온라인에서 실행해보세요.
이 앱을 실행하려면 다음 지침을 따르세요.
- 1. 이 애플리케이션을 PC에 다운로드했습니다.
- 2. 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX에 원하는 사용자 이름을 입력합니다.
- 3. 이러한 파일 관리자에서 이 응용 프로그램을 업로드합니다.
- 4. 이 웹사이트에서 OnWorks Linux 온라인 또는 Windows 온라인 에뮬레이터 또는 MACOS 온라인 에뮬레이터를 시작합니다.
- 5. 방금 시작한 OnWorks Linux OS에서 원하는 사용자 이름으로 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX로 이동합니다.
- 6. 응용 프로그램을 다운로드하여 설치하고 실행합니다.
스크린샷:
알렉스
설명 :
RLax("릴랙스"로 발음)는 Google DeepMind에서 개발한 JAX 기반 라이브러리로, 강화 학습(RL) 에이전트를 구축하기 위한 재사용 가능한 수학적 구성 요소를 제공합니다. RLax는 전체 알고리즘을 구현하는 대신, 가치 함수, 수익률, 정책 기울기, 손실 항 계산과 같은 강화 학습 방법의 기반이 되는 핵심 함수 연산에 집중하여 연구자들이 자신만의 에이전트를 유연하게 구성할 수 있도록 합니다. RLax는 온-폴리시(on-policy) 및 오프-폴리시(off-policy) 학습뿐만 아니라 가치 기반, 정책 기반, 모델 기반 접근 방식을 모두 지원합니다. RLax는 JAX와 완벽하게 JIT 컴파일이 가능하여 CPU, GPU, TPU 백엔드에서 고성능 실행을 지원합니다. 이 라이브러리는 벨만 방정식, 수익률 분포, 일반 가치 함수, 그리고 연속 및 이산 행동 공간 모두에서 정책 최적화를 위한 도구를 구현합니다. DeepMind의 Haiku(신경망 정의용) 및 Optax(최적화용)와 완벽하게 통합되어 모듈식 강화 학습 파이프라인의 핵심 구성 요소입니다.
기능
- 모듈식 강화 학습 기본 요소(값, 반환 및 정책)
- GPU/TPU 가속 및 자동 차별화를 위해 JAX 최적화
- 정책 내 및 정책 외 학습 패러다임을 지원합니다.
- 분포 가치 함수와 일반 가치 함수를 구현합니다.
- 신경망 및 최적화 파이프라인을 위해 Haiku 및 Optax와 통합
- 재현성 및 교육적 활용을 위한 포괄적인 테스트 및 사례
프로그래밍 언어
파이썬, 유닉스 셸
카테고리
이 애플리케이션은 https://sourceforge.net/projects/rlax.mirror/에서도 다운로드할 수 있습니다. OnWorks에 호스팅되어 무료 운영 체제 중 하나에서 가장 쉽게 온라인에서 실행할 수 있도록 설계되었습니다.