Amazon Best VPN GoSearch

ไอคอน Fav ของ OnWorks

ดาวน์โหลด DeepSeek-V3 สำหรับ Linux

ดาวน์โหลดแอป DeepSeek-V3 Linux ฟรีเพื่อใช้งานออนไลน์ใน Ubuntu ออนไลน์, Fedora ออนไลน์ หรือ Debian ออนไลน์

นี่คือแอป Linux ชื่อ DeepSeek-V3 ซึ่งสามารถดาวน์โหลดเวอร์ชันล่าสุดได้ที่ v1.0.0sourcecode.tar.gz สามารถรันออนไลน์บน OnWorks ซึ่งเป็นผู้ให้บริการโฮสติ้งฟรีสำหรับเวิร์กสเตชัน

ดาวน์โหลดและรันแอปชื่อ DeepSeek-V3 พร้อม OnWorks ออนไลน์ได้ฟรี

ทำตามคำแนะนำเหล่านี้เพื่อเรียกใช้แอปนี้:

- 1. ดาวน์โหลดแอปพลิเคชั่นนี้ในพีซีของคุณ

- 2. เข้าไปที่ file manager https://www.onworks.net/myfiles.php?username=XXXXX ด้วยชื่อผู้ใช้ที่คุณต้องการ

- 3. อัปโหลดแอปพลิเคชันนี้ในตัวจัดการไฟล์ดังกล่าว

- 4. เริ่มโปรแกรมจำลองออนไลน์ของ OnWorks Linux หรือ Windows ออนไลน์ หรือโปรแกรมจำลองออนไลน์ MACOS จากเว็บไซต์นี้

- 5. จาก OnWorks Linux OS คุณเพิ่งเริ่มต้น ไปที่ตัวจัดการไฟล์ของเรา https://www.onworks.net/myfiles.php?username=XXXXX พร้อมชื่อผู้ใช้ที่คุณต้องการ

- 6. ดาวน์โหลดแอปพลิเคชั่น ติดตั้ง และเรียกใช้

ภาพหน้าจอ

Ad


ดีพซีค-V3


DESCRIPTION

DeepSeek-V3 เป็นโมเดลภาษาแบบผสมผสานผู้เชี่ยวชาญ (Mixture-of-Experts: MoE) ที่แข็งแกร่งซึ่งพัฒนาโดย DeepSeek ซึ่งประกอบด้วยพารามิเตอร์ทั้งหมด 671 พันล้านตัว โดยมีการเปิดใช้งาน 37 พันล้านตัวต่อโทเค็น โมเดลนี้ใช้ Multi-head Latent Attention (MLA) และสถาปัตยกรรม DeepSeekMoE เพื่อเพิ่มประสิทธิภาพการประมวลผล โมเดลนี้นำเสนอกลยุทธ์การปรับสมดุลโหลดแบบปราศจากการสูญเสียเสริม (auxiliary-loss-free load balancing) และวัตถุประสงค์การฝึกทำนายแบบหลายโทเค็นเพื่อเพิ่มประสิทธิภาพ DeepSeek-V14.8 ได้รับการฝึกฝนบนโทเค็นคุณภาพสูงที่หลากหลายจำนวน 3 ล้านล้านโทเค็น และผ่านการปรับแต่งอย่างละเอียดแบบมีผู้สอนและการเรียนรู้แบบเสริมกำลัง (supervised fine-tuning and reinforcement learning) เพื่อบรรลุขีดความสามารถอย่างเต็มที่ ผลการประเมินบ่งชี้ว่าโมเดลนี้มีประสิทธิภาพเหนือกว่าโมเดลโอเพนซอร์สอื่นๆ และคู่แข่งที่เป็นโมเดลแบบปิดชั้นนำ โดยใช้เวลาฝึกฝน 55 วันบน GPU Nvidia H2,048 จำนวน 800 ตัว ซึ่งมีมูลค่าประมาณ 5.58 ล้านดอลลาร์



คุณสมบัติ

  • พารามิเตอร์ 671 พันล้านตัวพร้อมการเปิดใช้งาน 37 พันล้านตัวต่อโทเค็น ช่วยให้มั่นใจถึงการสร้างแบบจำลองภาษาที่แข็งแกร่ง
  • สถาปัตยกรรม Multi-head Latent Attention (MLA) และ DeepSeekMoE เพื่อการคำนวณที่มีประสิทธิภาพ
  • กลยุทธ์การปรับสมดุลโหลดแบบไม่มีการสูญเสียเสริมเพื่อเพิ่มประสิทธิภาพโดยไม่มีการสูญเสียเพิ่มเติม
  • วัตถุประสงค์การฝึกอบรมการทำนายแบบหลายโทเค็นเพื่อความสามารถในการทำนายที่ดีขึ้น
  • ได้รับการฝึกอบรมล่วงหน้าบนโทเค็นที่มีความหลากหลายถึง 14.8 ล้านล้านรายการ เพื่อให้แน่ใจว่าเข้าใจภาษาได้อย่างครอบคลุม
  • ปรับแต่งอย่างละเอียดภายใต้การดูแลและการเรียนรู้การเสริมแรงเพื่อใช้ศักยภาพของแบบจำลองอย่างเต็มที่
  • เหนือกว่าโมเดลโอเพนซอร์สอื่นๆ เมื่อเปรียบเทียบกับโมเดลโอเพนซอร์สแบบปิดชั้นนำ
  • การฝึกอบรมที่คุ้มต้นทุน เสร็จสิ้นภายใน 55 วัน โดยใช้ GPU Nvidia H2,048 จำนวน 800 ตัว ในราคาประมาณ 5.58 ล้านดอลลาร์


ภาษาโปรแกรม

หลาม


หมวดหมู่

โมเดลภาษาขนาดใหญ่ (LLM), กรอบการเรียนรู้แบบเสริมแรง, โมเดล AI

นี่คือแอปพลิเคชันที่สามารถดึงข้อมูลจาก https://sourceforge.net/projects/deepseek-v3.mirror/ ได้ แอปพลิเคชันนี้โฮสต์อยู่ใน OnWorks เพื่อให้ใช้งานออนไลน์ได้ง่ายที่สุดจากระบบปฏิบัติการฟรีของเรา


เซิร์ฟเวอร์และเวิร์กสเตชันฟรี

ดาวน์โหลดแอพ Windows & Linux

คำสั่ง Linux

Ad




×
โฆษณา
❤️ช้อป จอง หรือซื้อที่นี่โดยไม่เสียค่าใช้จ่าย ช่วยให้บริการต่างๆ ฟรี