This is the Windows app named Tencent-Hunyuan-Large whose latest release can be downloaded as Tencent-Hunyuan-Largesourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
Download and run online this app named Tencent-Hunyuan-Large with OnWorks for free.
اتبع هذه التعليمات لتشغيل هذا التطبيق:
- 1. قم بتنزيل هذا التطبيق على جهاز الكمبيوتر الخاص بك.
- 2. أدخل في مدير الملفات الخاص بنا https://www.onworks.net/myfiles.php؟username=XXXXX باسم المستخدم الذي تريده.
- 3. تحميل هذا التطبيق في هذا الملف.
- 4. ابدأ تشغيل أي محاكي لنظام التشغيل OnWorks عبر الإنترنت من موقع الويب هذا ، ولكن أفضل محاكي Windows عبر الإنترنت.
- 5. من نظام التشغيل OnWorks Windows الذي بدأته للتو ، انتقل إلى مدير الملفات الخاص بنا https://www.onworks.net/myfiles.php؟username=XXXXX مع اسم المستخدم الذي تريده.
- 6. قم بتنزيل التطبيق وتثبيته.
- 7. قم بتنزيل Wine من مستودعات برامج توزيعات Linux الخاصة بك. بمجرد التثبيت ، يمكنك النقر نقرًا مزدوجًا فوق التطبيق لتشغيله باستخدام Wine. يمكنك أيضًا تجربة PlayOnLinux ، وهي واجهة رائعة على Wine والتي ستساعدك على تثبيت برامج وألعاب Windows الشائعة.
يعد Wine طريقة لتشغيل برامج Windows على نظام Linux ، ولكن بدون الحاجة إلى Windows. Wine عبارة عن طبقة توافق Windows مفتوحة المصدر يمكنها تشغيل برامج Windows مباشرة على أي سطح مكتب Linux. بشكل أساسي ، يحاول Wine إعادة تنفيذ ما يكفي من Windows من البداية حتى يتمكن من تشغيل جميع تطبيقات Windows دون الحاجة إلى Windows بالفعل.
SCREENSHOTS
Ad
تينسنت-هونيوان-كبير
الوصف
Tencent-Hunyuan-Large is the flagship open-source large language model family from Tencent Hunyuan, offering both pre-trained and instruct (fine-tuned) variants. It is designed with long-context capabilities, quantization support, and high performance on benchmarks across general reasoning, mathematics, language understanding, and Chinese / multilingual tasks. It aims to provide competitive capability with efficient deployment and inference. FP8 quantization support to reduce memory usage (~50%) while maintaining precision. High benchmarking performance on tasks like MMLU, MATH, CMMLU, C-Eval, etc.
شرح المميزات:
- Long context window support: up to 256K tokens in pretrain; 128K tokens for instruct models
- FP8 quantization support to reduce memory usage (~50%) while maintaining precision
- Expert-specific learning rate scaling in training (for mixture or expert architectures)
- High benchmarking performance on tasks like MMLU, MATH, CMMLU, C-Eval, etc.
- Hugging Face format compatibility for fine-tuning / inference using frameworks like hf-deepspeed, plus support for flash attention, efficient operators (TRT-LLM)
- Throughput and efficiency improvements: TRT-LLM backend surpasses vLLM by ~30 %, quantized/inference optimizations included
لغة البرمجة
Python
التصنيفات
This is an application that can also be fetched from https://sourceforge.net/projects/tencent-hunyuan-large.mirror/. It has been hosted in OnWorks in order to be run online in an easiest way from one of our free Operative Systems.