This is the Windows app named Tencent-Hunyuan-Large whose latest release can be downloaded as Tencent-Hunyuan-Largesourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
Download and run online this app named Tencent-Hunyuan-Large with OnWorks for free.
Bu uygulamayı çalıştırmak için şu talimatları izleyin:
- 1. Bu uygulamayı PC'nize indirdiniz.
- 2. Dosya yöneticimize https://www.onworks.net/myfiles.php?username=XXXXX istediğiniz kullanıcı adını girin.
- 3. Bu uygulamayı böyle bir dosya yöneticisine yükleyin.
- 4. Bu web sitesinden herhangi bir OS OnWorks çevrimiçi öykünücüsünü başlatın, ancak daha iyi Windows çevrimiçi öykünücüsü.
- 5. Yeni başlattığınız OnWorks Windows işletim sisteminden, istediğiniz kullanıcı adıyla https://www.onworks.net/myfiles.php?username=XXXXX dosya yöneticimize gidin.
- 6. Uygulamayı indirin ve kurun.
- 7. Wine'ı Linux dağıtımları yazılım havuzlarınızdan indirin. Kurulduktan sonra, Wine ile çalıştırmak için uygulamaya çift tıklayabilirsiniz. Ayrıca, popüler Windows programlarını ve oyunlarını yüklemenize yardımcı olacak Wine üzerinden gösterişli bir arayüz olan PlayOnLinux'u da deneyebilirsiniz.
Wine, Windows yazılımını Linux üzerinde çalıştırmanın bir yoludur, ancak Windows gerektirmez. Wine, Windows programlarını doğrudan herhangi bir Linux masaüstünde çalıştırabilen açık kaynaklı bir Windows uyumluluk katmanıdır. Esasen Wine, Windows'a ihtiyaç duymadan tüm bu Windows uygulamalarını çalıştırabilmesi için yeterince Windows'u sıfırdan yeniden uygulamaya çalışıyor.
EKRAN
Ad
Tencent-Hunyuan-Büyük
AÇIKLAMA
Tencent-Hunyuan-Large is the flagship open-source large language model family from Tencent Hunyuan, offering both pre-trained and instruct (fine-tuned) variants. It is designed with long-context capabilities, quantization support, and high performance on benchmarks across general reasoning, mathematics, language understanding, and Chinese / multilingual tasks. It aims to provide competitive capability with efficient deployment and inference. FP8 quantization support to reduce memory usage (~50%) while maintaining precision. High benchmarking performance on tasks like MMLU, MATH, CMMLU, C-Eval, etc.
Özellikler
- Long context window support: up to 256K tokens in pretrain; 128K tokens for instruct models
- FP8 quantization support to reduce memory usage (~50%) while maintaining precision
- Expert-specific learning rate scaling in training (for mixture or expert architectures)
- High benchmarking performance on tasks like MMLU, MATH, CMMLU, C-Eval, etc.
- Hugging Face format compatibility for fine-tuning / inference using frameworks like hf-deepspeed, plus support for flash attention, efficient operators (TRT-LLM)
- Throughput and efficiency improvements: TRT-LLM backend surpasses vLLM by ~30 %, quantized/inference optimizations included
Programlama dili
Python
Kategoriler
This is an application that can also be fetched from https://sourceforge.net/projects/tencent-hunyuan-large.mirror/. It has been hosted in OnWorks in order to be run online in an easiest way from one of our free Operative Systems.