이것은 최신 릴리스를 v23.09.00.zip으로 다운로드할 수 있는 NVIDIA Merlin이라는 Windows 앱입니다. 워크스테이션용 무료 호스팅 제공업체인 OnWorks에서 온라인으로 실행할 수 있습니다.
OnWorks가 포함된 NVIDIA Merlin이라는 앱을 무료로 다운로드하여 온라인으로 실행해 보세요.
이 앱을 실행하려면 다음 지침을 따르세요.
- 1. 이 애플리케이션을 PC에 다운로드했습니다.
- 2. 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX에 원하는 사용자 이름을 입력합니다.
- 3. 이러한 파일 관리자에서 이 응용 프로그램을 업로드합니다.
- 4. 이 웹사이트에서 모든 OS OnWorks 온라인 에뮬레이터를 시작하지만 더 나은 Windows 온라인 에뮬레이터를 시작합니다.
- 5. 방금 시작한 OnWorks Windows OS에서 원하는 사용자 이름으로 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX로 이동합니다.
- 6. 애플리케이션을 다운로드하여 설치합니다.
- 7. Linux 배포 소프트웨어 저장소에서 Wine을 다운로드합니다. 설치가 완료되면 앱을 두 번 클릭하여 Wine과 함께 실행할 수 있습니다. 인기 있는 Windows 프로그램 및 게임을 설치하는 데 도움이 되는 Wine을 통한 멋진 인터페이스인 PlayOnLinux를 사용해 볼 수도 있습니다.
Wine은 Linux에서 Windows 소프트웨어를 실행하는 방법이지만 Windows가 필요하지 않습니다. Wine은 모든 Linux 데스크탑에서 직접 Windows 프로그램을 실행할 수 있는 오픈 소스 Windows 호환성 계층입니다. 본질적으로 Wine은 Windows가 필요하지 않고 모든 Windows 응용 프로그램을 실행할 수 있도록 Windows를 처음부터 충분히 다시 구현하려고 합니다.
스크린 샷
Ad
엔비디아 멀린
기술
NVIDIA Merlin은 NVIDIA GPU에서 추천 시스템을 가속화하는 오픈 소스 라이브러리입니다. 이 라이브러리를 사용하면 데이터 과학자, 기계 학습 엔지니어 및 연구원이 대규모로 고성능 추천 프로그램을 구축할 수 있습니다. Merlin에는 일반적인 기능 엔지니어링, 교육 및 추론 문제를 해결하는 도구가 포함되어 있습니다. Merlin 파이프라인의 각 단계는 수백 테라바이트의 데이터를 지원하도록 최적화되어 있으며, 이는 모두 사용하기 쉬운 API를 통해 액세스할 수 있습니다. 자세한 내용은 NVIDIA 개발자 웹사이트에서 NVIDIA Merlin을 참조하세요. 전처리 및 엔지니어링 기능을 위한 데이터 변환(ETL)입니다. 최적화된 맞춤형 데이터 로더를 활용하여 TensorFlow, PyTorch 또는 FastAI에서 기존 교육 파이프라인을 가속화하세요. 사용 가능한 GPU 및 CPU 메모리를 초과하는 대규모 임베딩 테이블을 배포하여 대규모 딥 러닝 추천 모델을 확장합니다. 단 몇 줄의 코드만으로 데이터 변환과 훈련된 모델을 프로덕션에 배포하세요.
특징
- 전처리 및 엔지니어링 기능을 위한 데이터 변환(ETL)
- 최적화된 맞춤형 데이터 로더를 활용하여 TensorFlow, PyTorch 또는 FastAI에서 기존 교육 파이프라인을 가속화하세요.
- 사용 가능한 GPU 및 CPU 메모리를 초과하는 대규모 임베딩 테이블을 배포하여 대규모 딥 러닝 추천 모델 확장
- 단 몇 줄의 코드만으로 데이터 변환 및 훈련된 모델을 프로덕션에 배포
- NVTabular는 표 형식 데이터를 위한 기능 엔지니어링 및 전처리 라이브러리입니다.
- HugeCTR은 대규모 딥 러닝 추천 모델을 확장할 수 있는 GPU 가속 교육 프레임워크입니다.
프로그래밍 언어
Python
카테고리
이는 https://sourceforge.net/projects/nvidia-merlin.mirror/에서도 가져올 수 있는 애플리케이션입니다. 무료 운영 시스템 중 하나에서 가장 쉬운 방법으로 온라인으로 실행하기 위해 OnWorks에서 호스팅되었습니다.