นี่คือแอป Linux ชื่อ DeepSeek R1 ซึ่งสามารถดาวน์โหลดเวอร์ชันล่าสุดได้ที่ v1.0.0sourcecode.zip สามารถรันออนไลน์บน OnWorks ซึ่งเป็นผู้ให้บริการโฮสติ้งฟรีสำหรับเวิร์กสเตชัน
ดาวน์โหลดและรันแอปชื่อ DeepSeek R1 พร้อม OnWorks ออนไลน์ได้ฟรี
ทำตามคำแนะนำเหล่านี้เพื่อเรียกใช้แอปนี้:
- 1. ดาวน์โหลดแอปพลิเคชั่นนี้ในพีซีของคุณ
- 2. เข้าไปที่ file manager https://www.onworks.net/myfiles.php?username=XXXXX ด้วยชื่อผู้ใช้ที่คุณต้องการ
- 3. อัปโหลดแอปพลิเคชันนี้ในตัวจัดการไฟล์ดังกล่าว
- 4. เริ่มโปรแกรมจำลองออนไลน์ของ OnWorks Linux หรือ Windows ออนไลน์ หรือโปรแกรมจำลองออนไลน์ MACOS จากเว็บไซต์นี้
- 5. จาก OnWorks Linux OS คุณเพิ่งเริ่มต้น ไปที่ตัวจัดการไฟล์ของเรา https://www.onworks.net/myfiles.php?username=XXXXX พร้อมชื่อผู้ใช้ที่คุณต้องการ
- 6. ดาวน์โหลดแอปพลิเคชั่น ติดตั้ง และเรียกใช้
ภาพหน้าจอ:
Deep Seek R1
รายละเอียด:
DeepSeek-R1 เป็นโมเดลภาษาโอเพนซอร์สขนาดใหญ่ที่พัฒนาโดย DeepSeek ออกแบบมาเพื่อให้มีประสิทธิภาพสูงสุดในงานด้านการใช้เหตุผลที่ซับซ้อนในหลากหลายสาขา เช่น คณิตศาสตร์ การเขียนโค้ด และภาษา DeepSeek R1 มอบการเข้าถึงที่ไม่จำกัดสำหรับการใช้งานทั้งในเชิงพาณิชย์และเชิงวิชาการ โมเดลนี้ใช้สถาปัตยกรรมแบบผสมผสานของผู้เชี่ยวชาญ (MoE) ซึ่งประกอบด้วยพารามิเตอร์ทั้งหมด 671 พันล้านพารามิเตอร์ โดยมีพารามิเตอร์ที่ใช้งานอยู่ 37 พันล้านพารามิเตอร์ต่อโทเค็น และรองรับความยาวบริบทสูงสุด 128,000 โทเค็น ระบบการฝึกของ DeepSeek-R1 ผสานรวมการเรียนรู้แบบเสริมแรงขนาดใหญ่ (RL) ได้อย่างโดดเด่น โดยไม่ต้องอาศัยการปรับแต่งแบบมีผู้สอน ทำให้โมเดลสามารถพัฒนาความสามารถในการใช้เหตุผลขั้นสูงได้ วิธีการนี้ส่งผลให้มีประสิทธิภาพเทียบเท่ากับโมเดลชั้นนำอย่าง o1 ของ OpenAI ในขณะที่ยังคงรักษาความคุ้มค่าไว้ได้ เพื่อสนับสนุนชุมชนนักวิจัยเพิ่มเติม DeepSeek จึงได้เปิดตัวโมเดลเวอร์ชันที่สรุปแล้วโดยอิงจากสถาปัตยกรรมต่างๆ เช่น LLaMA และ Qwen
คุณสมบัติ
- สถาปัตยกรรมแบบผสมผสานของผู้เชี่ยวชาญ (MoE) – มีคุณลักษณะพารามิเตอร์รวม 671 พันล้านรายการ โดยมีพารามิเตอร์ที่ใช้งานได้จริง 37 พันล้านรายการต่อโทเค็น ช่วยเพิ่มประสิทธิภาพและประสิทธิผลการทำงาน
- ความยาวบริบท 128K – รองรับหน้าต่างบริบทขยายได้ถึง 128,000 โทเค็น ช่วยให้เข้าใจเนื้อหาในรูปแบบยาวได้ดีขึ้น
- การฝึกอบรมการเรียนรู้แบบเสริมแรง – ใช้การเรียนรู้แบบเสริมแรงขนาดใหญ่ (RL) แทนการปรับแต่งแบบมีการดูแล ช่วยเพิ่มความสามารถในการใช้เหตุผล
- ประสิทธิภาพสูง – ให้ผลลัพธ์ที่เทียบเคียงได้กับโมเดลชั้นนำ เช่น GPT-4-turbo ของ OpenAI ในขณะที่คุ้มต้นทุนมากกว่า
- โอเพ่นซอร์สและการใช้งานเชิงพาณิชย์ – เปิดตัวภายใต้ใบอนุญาต MIT อนุญาตให้เข้าถึงโดยไม่มีข้อจำกัดสำหรับทั้งแอปพลิเคชันทางวิชาการและองค์กร
- ความสามารถแบบหลายโหมดและการเขียนโค้ด – โดดเด่นในด้านคณิตศาสตร์ การเขียนโค้ด และการใช้เหตุผลเชิงตรรกะ ทำให้เหมาะสำหรับงาน AI ที่หลากหลาย
- มีเวอร์ชันที่กลั่นแล้วให้เลือก – รวมถึงเวอร์ชันที่ได้รับการปรับให้เหมาะสมตามสถาปัตยกรรมเช่น LLaMA และ Qwen ซึ่งมอบประสิทธิภาพสูง
- การปรับใช้บนคลาวด์และภายในเครื่อง – พร้อมใช้งานผ่าน Azure AI Foundry และ GitHub รับประกันการบูรณาการที่ราบรื่นกับแพลตฟอร์มต่างๆ
ภาษาโปรแกรม
หลาม
หมวดหมู่
นี่คือแอปพลิเคชันที่สามารถดึงข้อมูลจาก https://sourceforge.net/projects/deepseek-r1.mirror/ ได้ แอปพลิเคชันนี้โฮสต์อยู่ใน OnWorks เพื่อให้ใช้งานออนไลน์ได้ง่ายที่สุดจากระบบปฏิบัติการฟรีของเรา