นี่คือแอป Linux ชื่อ DeepSeek-V3 ซึ่งสามารถดาวน์โหลดเวอร์ชันล่าสุดได้ที่ v1.0.0sourcecode.tar.gz สามารถรันออนไลน์บน OnWorks ซึ่งเป็นผู้ให้บริการโฮสติ้งฟรีสำหรับเวิร์กสเตชัน
ดาวน์โหลดและรันแอปชื่อ DeepSeek-V3 พร้อม OnWorks ออนไลน์ได้ฟรี
ทำตามคำแนะนำเหล่านี้เพื่อเรียกใช้แอปนี้:
- 1. ดาวน์โหลดแอปพลิเคชั่นนี้ในพีซีของคุณ
- 2. เข้าไปที่ file manager https://www.onworks.net/myfiles.php?username=XXXXX ด้วยชื่อผู้ใช้ที่คุณต้องการ
- 3. อัปโหลดแอปพลิเคชันนี้ในตัวจัดการไฟล์ดังกล่าว
- 4. เริ่มโปรแกรมจำลองออนไลน์ของ OnWorks Linux หรือ Windows ออนไลน์ หรือโปรแกรมจำลองออนไลน์ MACOS จากเว็บไซต์นี้
- 5. จาก OnWorks Linux OS คุณเพิ่งเริ่มต้น ไปที่ตัวจัดการไฟล์ของเรา https://www.onworks.net/myfiles.php?username=XXXXX พร้อมชื่อผู้ใช้ที่คุณต้องการ
- 6. ดาวน์โหลดแอปพลิเคชั่น ติดตั้ง และเรียกใช้
ภาพหน้าจอ
Ad
ดีพซีค-V3
DESCRIPTION
DeepSeek-V3 เป็นโมเดลภาษาแบบผสมผสานผู้เชี่ยวชาญ (Mixture-of-Experts: MoE) ที่แข็งแกร่งซึ่งพัฒนาโดย DeepSeek ซึ่งประกอบด้วยพารามิเตอร์ทั้งหมด 671 พันล้านตัว โดยมีการเปิดใช้งาน 37 พันล้านตัวต่อโทเค็น โมเดลนี้ใช้ Multi-head Latent Attention (MLA) และสถาปัตยกรรม DeepSeekMoE เพื่อเพิ่มประสิทธิภาพการประมวลผล โมเดลนี้นำเสนอกลยุทธ์การปรับสมดุลโหลดแบบปราศจากการสูญเสียเสริม (auxiliary-loss-free load balancing) และวัตถุประสงค์การฝึกทำนายแบบหลายโทเค็นเพื่อเพิ่มประสิทธิภาพ DeepSeek-V14.8 ได้รับการฝึกฝนบนโทเค็นคุณภาพสูงที่หลากหลายจำนวน 3 ล้านล้านโทเค็น และผ่านการปรับแต่งอย่างละเอียดแบบมีผู้สอนและการเรียนรู้แบบเสริมกำลัง (supervised fine-tuning and reinforcement learning) เพื่อบรรลุขีดความสามารถอย่างเต็มที่ ผลการประเมินบ่งชี้ว่าโมเดลนี้มีประสิทธิภาพเหนือกว่าโมเดลโอเพนซอร์สอื่นๆ และคู่แข่งที่เป็นโมเดลแบบปิดชั้นนำ โดยใช้เวลาฝึกฝน 55 วันบน GPU Nvidia H2,048 จำนวน 800 ตัว ซึ่งมีมูลค่าประมาณ 5.58 ล้านดอลลาร์
คุณสมบัติ
- พารามิเตอร์ 671 พันล้านตัวพร้อมการเปิดใช้งาน 37 พันล้านตัวต่อโทเค็น ช่วยให้มั่นใจถึงการสร้างแบบจำลองภาษาที่แข็งแกร่ง
- สถาปัตยกรรม Multi-head Latent Attention (MLA) และ DeepSeekMoE เพื่อการคำนวณที่มีประสิทธิภาพ
- กลยุทธ์การปรับสมดุลโหลดแบบไม่มีการสูญเสียเสริมเพื่อเพิ่มประสิทธิภาพโดยไม่มีการสูญเสียเพิ่มเติม
- วัตถุประสงค์การฝึกอบรมการทำนายแบบหลายโทเค็นเพื่อความสามารถในการทำนายที่ดีขึ้น
- ได้รับการฝึกอบรมล่วงหน้าบนโทเค็นที่มีความหลากหลายถึง 14.8 ล้านล้านรายการ เพื่อให้แน่ใจว่าเข้าใจภาษาได้อย่างครอบคลุม
- ปรับแต่งอย่างละเอียดภายใต้การดูแลและการเรียนรู้การเสริมแรงเพื่อใช้ศักยภาพของแบบจำลองอย่างเต็มที่
- เหนือกว่าโมเดลโอเพนซอร์สอื่นๆ เมื่อเปรียบเทียบกับโมเดลโอเพนซอร์สแบบปิดชั้นนำ
- การฝึกอบรมที่คุ้มต้นทุน เสร็จสิ้นภายใน 55 วัน โดยใช้ GPU Nvidia H2,048 จำนวน 800 ตัว ในราคาประมาณ 5.58 ล้านดอลลาร์
ภาษาโปรแกรม
หลาม
หมวดหมู่
นี่คือแอปพลิเคชันที่สามารถดึงข้อมูลจาก https://sourceforge.net/projects/deepseek-v3.mirror/ ได้ แอปพลิเคชันนี้โฮสต์อยู่ใน OnWorks เพื่อให้ใช้งานออนไลน์ได้ง่ายที่สุดจากระบบปฏิบัติการฟรีของเรา