GoGPT Best VPN GoSearch

Значок OnWorks

Tencent-Hunyuan-Large download for Windows

Free download Tencent-Hunyuan-Large Windows app to run online win Wine in Ubuntu online, Fedora online or Debian online

This is the Windows app named Tencent-Hunyuan-Large whose latest release can be downloaded as Tencent-Hunyuan-Largesourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.

Download and run online this app named Tencent-Hunyuan-Large with OnWorks for free.

Следуйте этим инструкциям, чтобы запустить это приложение:

- 1. Загрузил это приложение на свой компьютер.

- 2. Введите в нашем файловом менеджере https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.

- 3. Загрузите это приложение в такой файловый менеджер.

- 4. Запустите любой онлайн-эмулятор OS OnWorks с этого сайта, но лучше онлайн-эмулятор Windows.

- 5. В только что запущенной ОС Windows OnWorks перейдите в наш файловый менеджер https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.

- 6. Скачайте приложение и установите его.

- 7. Загрузите Wine из репозиториев программного обеспечения вашего дистрибутива Linux. После установки вы можете дважды щелкнуть приложение, чтобы запустить его с помощью Wine. Вы также можете попробовать PlayOnLinux, необычный интерфейс поверх Wine, который поможет вам установить популярные программы и игры для Windows.

Wine - это способ запустить программное обеспечение Windows в Linux, но без Windows. Wine - это уровень совместимости с Windows с открытым исходным кодом, который может запускать программы Windows непосредственно на любом рабочем столе Linux. По сути, Wine пытается заново реализовать Windows с нуля, чтобы можно было запускать все эти Windows-приложения, фактически не нуждаясь в Windows.

СКРИНШОТЫ

Ad


Tencent-Hunyuan-Large


ОПИСАНИЕ

Tencent-Hunyuan-Large is the flagship open-source large language model family from Tencent Hunyuan, offering both pre-trained and instruct (fine-tuned) variants. It is designed with long-context capabilities, quantization support, and high performance on benchmarks across general reasoning, mathematics, language understanding, and Chinese / multilingual tasks. It aims to provide competitive capability with efficient deployment and inference. FP8 quantization support to reduce memory usage (~50%) while maintaining precision. High benchmarking performance on tasks like MMLU, MATH, CMMLU, C-Eval, etc.



Особенности

  • Long context window support: up to 256K tokens in pretrain; 128K tokens for instruct models
  • FP8 quantization support to reduce memory usage (~50%) while maintaining precision
  • Expert-specific learning rate scaling in training (for mixture or expert architectures)
  • High benchmarking performance on tasks like MMLU, MATH, CMMLU, C-Eval, etc.
  • Hugging Face format compatibility for fine-tuning / inference using frameworks like hf-deepspeed, plus support for flash attention, efficient operators (TRT-LLM)
  • Throughput and efficiency improvements: TRT-LLM backend surpasses vLLM by ~30 %, quantized/inference optimizations included


Язык программирования

Питон


Категории

Большие языковые модели (LLM), модели ИИ

This is an application that can also be fetched from https://sourceforge.net/projects/tencent-hunyuan-large.mirror/. It has been hosted in OnWorks in order to be run online in an easiest way from one of our free Operative Systems.


Бесплатные серверы и рабочие станции

Скачать приложения для Windows и Linux

Команды Linux

Ad




×
Реклама
❤️Совершайте покупки, бронируйте или заказывайте здесь — никаких затрат, что помогает поддерживать бесплатность услуг.