This is the Windows app named Tencent-Hunyuan-Large whose latest release can be downloaded as Tencent-Hunyuan-Largesourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
Download and run online this app named Tencent-Hunyuan-Large with OnWorks for free.
برای اجرای این برنامه این دستورالعمل ها را دنبال کنید:
- 1. این برنامه را در رایانه شخصی خود دانلود کنید.
- 2. در فایل منیجر ما https://www.onworks.net/myfiles.php?username=XXXXX نام کاربری مورد نظر خود را وارد کنید.
- 3. این برنامه را در چنین فایل منیجر آپلود کنید.
- 4. هر شبیه ساز آنلاین OS OnWorks را از این وب سایت راه اندازی کنید، اما شبیه ساز آنلاین ویندوز بهتر است.
- 5. از OnWorks Windows OS که به تازگی راه اندازی کرده اید، به مدیر فایل ما https://www.onworks.net/myfiles.php?username=XXXXX با نام کاربری که می خواهید بروید.
- 6. برنامه را دانلود و نصب کنید.
- 7. Wine را از مخازن نرم افزار توزیع لینوکس خود دانلود کنید. پس از نصب، می توانید روی برنامه دوبار کلیک کنید تا آنها را با Wine اجرا کنید. همچنین می توانید PlayOnLinux را امتحان کنید، یک رابط کاربری فانتزی بر روی Wine که به شما کمک می کند برنامه ها و بازی های محبوب ویندوز را نصب کنید.
Wine راهی برای اجرای نرم افزار ویندوز بر روی لینوکس است، اما بدون نیاز به ویندوز. Wine یک لایه سازگار با ویندوز منبع باز است که می تواند برنامه های ویندوز را مستقیماً بر روی هر دسکتاپ لینوکس اجرا کند. اساساً، Wine در تلاش است تا به اندازه کافی از ویندوز را از ابتدا مجدداً پیاده سازی کند تا بتواند همه آن برنامه های ویندوز را بدون نیاز به ویندوز اجرا کند.
عکس ها
Ad
Tencent-Hunyuan-Large
شرح
Tencent-Hunyuan-Large is the flagship open-source large language model family from Tencent Hunyuan, offering both pre-trained and instruct (fine-tuned) variants. It is designed with long-context capabilities, quantization support, and high performance on benchmarks across general reasoning, mathematics, language understanding, and Chinese / multilingual tasks. It aims to provide competitive capability with efficient deployment and inference. FP8 quantization support to reduce memory usage (~50%) while maintaining precision. High benchmarking performance on tasks like MMLU, MATH, CMMLU, C-Eval, etc.
امکانات
- Long context window support: up to 256K tokens in pretrain; 128K tokens for instruct models
- FP8 quantization support to reduce memory usage (~50%) while maintaining precision
- Expert-specific learning rate scaling in training (for mixture or expert architectures)
- High benchmarking performance on tasks like MMLU, MATH, CMMLU, C-Eval, etc.
- Hugging Face format compatibility for fine-tuning / inference using frameworks like hf-deepspeed, plus support for flash attention, efficient operators (TRT-LLM)
- Throughput and efficiency improvements: TRT-LLM backend surpasses vLLM by ~30 %, quantized/inference optimizations included
زبان برنامه نویسی
پــایتــون
دسته بندی ها
This is an application that can also be fetched from https://sourceforge.net/projects/tencent-hunyuan-large.mirror/. It has been hosted in OnWorks in order to be run online in an easiest way from one of our free Operative Systems.