Amazon Best VPN GoSearch

ไอคอน Fav ของ OnWorks

ดาวน์โหลด DeepSeek R1 สำหรับ Linux

ดาวน์โหลดแอป DeepSeek R1 Linux ฟรีเพื่อรันออนไลน์ใน Ubuntu ออนไลน์, Fedora ออนไลน์ หรือ Debian ออนไลน์

นี่คือแอป Linux ชื่อ DeepSeek R1 ซึ่งสามารถดาวน์โหลดเวอร์ชันล่าสุดได้ที่ v1.0.0sourcecode.zip สามารถรันออนไลน์บน OnWorks ซึ่งเป็นผู้ให้บริการโฮสติ้งฟรีสำหรับเวิร์กสเตชัน

ดาวน์โหลดและรันแอปชื่อ DeepSeek R1 พร้อม OnWorks ออนไลน์ได้ฟรี

ทำตามคำแนะนำเหล่านี้เพื่อเรียกใช้แอปนี้:

- 1. ดาวน์โหลดแอปพลิเคชั่นนี้ในพีซีของคุณ

- 2. เข้าไปที่ file manager https://www.onworks.net/myfiles.php?username=XXXXX ด้วยชื่อผู้ใช้ที่คุณต้องการ

- 3. อัปโหลดแอปพลิเคชันนี้ในตัวจัดการไฟล์ดังกล่าว

- 4. เริ่มโปรแกรมจำลองออนไลน์ของ OnWorks Linux หรือ Windows ออนไลน์ หรือโปรแกรมจำลองออนไลน์ MACOS จากเว็บไซต์นี้

- 5. จาก OnWorks Linux OS คุณเพิ่งเริ่มต้น ไปที่ตัวจัดการไฟล์ของเรา https://www.onworks.net/myfiles.php?username=XXXXX พร้อมชื่อผู้ใช้ที่คุณต้องการ

- 6. ดาวน์โหลดแอปพลิเคชั่น ติดตั้ง และเรียกใช้

ภาพหน้าจอ

Ad


Deep Seek R1


DESCRIPTION

DeepSeek-R1 เป็นโมเดลภาษาโอเพนซอร์สขนาดใหญ่ที่พัฒนาโดย DeepSeek ออกแบบมาเพื่อให้มีประสิทธิภาพสูงสุดในงานด้านการใช้เหตุผลที่ซับซ้อนในหลากหลายสาขา เช่น คณิตศาสตร์ การเขียนโค้ด และภาษา DeepSeek R1 มอบการเข้าถึงที่ไม่จำกัดสำหรับการใช้งานทั้งในเชิงพาณิชย์และเชิงวิชาการ โมเดลนี้ใช้สถาปัตยกรรมแบบผสมผสานของผู้เชี่ยวชาญ (MoE) ซึ่งประกอบด้วยพารามิเตอร์ทั้งหมด 671 พันล้านพารามิเตอร์ โดยมีพารามิเตอร์ที่ใช้งานอยู่ 37 พันล้านพารามิเตอร์ต่อโทเค็น และรองรับความยาวบริบทสูงสุด 128,000 โทเค็น ระบบการฝึกของ DeepSeek-R1 ผสานรวมการเรียนรู้แบบเสริมแรงขนาดใหญ่ (RL) ได้อย่างโดดเด่น โดยไม่ต้องอาศัยการปรับแต่งแบบมีผู้สอน ทำให้โมเดลสามารถพัฒนาความสามารถในการใช้เหตุผลขั้นสูงได้ วิธีการนี้ส่งผลให้มีประสิทธิภาพเทียบเท่ากับโมเดลชั้นนำอย่าง o1 ของ OpenAI ในขณะที่ยังคงรักษาความคุ้มค่าไว้ได้ เพื่อสนับสนุนชุมชนนักวิจัยเพิ่มเติม DeepSeek จึงได้เปิดตัวโมเดลเวอร์ชันที่สรุปแล้วโดยอิงจากสถาปัตยกรรมต่างๆ เช่น LLaMA และ Qwen



คุณสมบัติ

  • สถาปัตยกรรมแบบผสมผสานของผู้เชี่ยวชาญ (MoE) – มีคุณลักษณะพารามิเตอร์รวม 671 พันล้านรายการ โดยมีพารามิเตอร์ที่ใช้งานได้จริง 37 พันล้านรายการต่อโทเค็น ช่วยเพิ่มประสิทธิภาพและประสิทธิผลการทำงาน
  • ความยาวบริบท 128K – รองรับหน้าต่างบริบทขยายได้ถึง 128,000 โทเค็น ช่วยให้เข้าใจเนื้อหาในรูปแบบยาวได้ดีขึ้น
  • การฝึกอบรมการเรียนรู้แบบเสริมแรง – ใช้การเรียนรู้แบบเสริมแรงขนาดใหญ่ (RL) แทนการปรับแต่งแบบมีการดูแล ช่วยเพิ่มความสามารถในการใช้เหตุผล
  • ประสิทธิภาพสูง – ให้ผลลัพธ์ที่เทียบเคียงได้กับโมเดลชั้นนำ เช่น GPT-4-turbo ของ OpenAI ในขณะที่คุ้มต้นทุนมากกว่า
  • โอเพ่นซอร์สและการใช้งานเชิงพาณิชย์ – เปิดตัวภายใต้ใบอนุญาต MIT อนุญาตให้เข้าถึงโดยไม่มีข้อจำกัดสำหรับทั้งแอปพลิเคชันทางวิชาการและองค์กร
  • ความสามารถแบบหลายโหมดและการเขียนโค้ด – โดดเด่นในด้านคณิตศาสตร์ การเขียนโค้ด และการใช้เหตุผลเชิงตรรกะ ทำให้เหมาะสำหรับงาน AI ที่หลากหลาย
  • มีเวอร์ชันที่กลั่นแล้วให้เลือก – รวมถึงเวอร์ชันที่ได้รับการปรับให้เหมาะสมตามสถาปัตยกรรมเช่น LLaMA และ Qwen ซึ่งมอบประสิทธิภาพสูง
  • การปรับใช้บนคลาวด์และภายในเครื่อง – พร้อมใช้งานผ่าน Azure AI Foundry และ GitHub รับประกันการบูรณาการที่ราบรื่นกับแพลตฟอร์มต่างๆ


ภาษาโปรแกรม

หลาม


หมวดหมู่

โมเดลภาษาขนาดใหญ่ (LLM), กรอบการเรียนรู้แบบเสริมแรง, โมเดล AI

นี่คือแอปพลิเคชันที่สามารถดึงข้อมูลจาก https://sourceforge.net/projects/deepseek-r1.mirror/ ได้ แอปพลิเคชันนี้โฮสต์อยู่ใน OnWorks เพื่อให้ใช้งานออนไลน์ได้ง่ายที่สุดจากระบบปฏิบัติการฟรีของเรา


เซิร์ฟเวอร์และเวิร์กสเตชันฟรี

ดาวน์โหลดแอพ Windows & Linux

คำสั่ง Linux

Ad




×
โฆษณา
❤️ช้อป จอง หรือซื้อที่นี่โดยไม่เสียค่าใช้จ่าย ช่วยให้บริการต่างๆ ฟรี