DeepSeek-R1: โมเดลการตัดสินจากเจนเนอเรชั่นถัดไป
ออกแบบมาสำหรับงานที่ซับซ้อนที่ต้องการการตัดสินใจขั้นสูง DeepSeek-R1 ผลักดันขอบเขตของการตัดสินด้วย AI

ความสามารถในการตัดสินขั้นสูง
ใช้การเรียนรู้แบบเสริมเพื่อปรับปรุงการตัดสิน ช่วยให้สามารถทำงานที่ซับซ้อนได้ เช่น การแก้ปัญหาทางคณิตศาสตร์และการเขียนโค้ด โดยใช้วิธีคิดเป็นลำดับ ความเห็นพ้อง และการค้นหาเพื่อตอบคำถามที่ดีที่สุด
สถาปัตยกรรม Mixture of Experts (MoE)
เป็นโมเดล MoE ขนาดใหญ่ที่มีพารามิเตอร์ 671 พันล้าน ตัว แต่ละชั้นมี 256 ผู้เชี่ยวชาญ และแต่ละ token ถูกประเมินโดยผู้เชี่ยวชาญ 8 คนที่แตกต่างกัน เพื่อเพิ่มประสิทธิภาพในการคาดคะเน
ความยาวของบริบทที่มาก
รองรับบริบทอินพุตที่ยาวถึง 128,000 token ช่วยให้สามารถประมวลผลและเข้าใจข้อมูลจำนวนมากได้
การปรับขนาดในระหว่างทดสอบ
DeepSeek-R1 คิดอย่างวนซ้ำเพื่อปรับปรุงคุณภาพผลลัพธ์โดยการสร้าง token เพิ่มขึ้น ทำให้วงจรการสร้างดีขึ้น
ประสิทธิภาพสูงในงานตัดสิน
แสดงผลที่เปรียบเทียบได้กับ OpenAI-o1-1217 ในการทดสอบงานตัดสิน
ความพร้อมใช้งานบนหลายแพลตฟอร์ม
มีให้ใช้งานบน NVIDIA NIM (ในรูปแบบไมโครเซอร์วิส), Azure AI Foundry (ในแคตตาล็อกโมเดล), GitHub และ Amazon SageMaker AI
ความปลอดภัยและการป้องกัน
ผ่านการประเมินความปลอดภัย รวมถึงการตรวจสอบและประเมินอัตโนมัติ โดยผสานรวมกับ Azure AI Content Safety สำหรับการกรองเนื้อหาที่ติดตั้งมาแล้ว

การดำเนินงานที่ซับซ้อน
เหมาะสำหรับงานที่ต้องการการตัดสินใจและแก้ปัญหาขั้นสูง
การแก้ปัญหาทางคณิตศาสตร์
ใช้ความสามารถในการตัดสินเพื่อแก้ไขปัญหาทางคณิตศาสตร์ที่ซับซ้อน
การเขียนโค้ดและพัฒนาซอฟต์แวร์
ช่วยในการสร้างโค้ด, ดีบัก และทำความเข้าใจฐานโค้ดที่ซับซ้อน
ความเข้าใจภาษาขั้นสูง
ประมวลผลและเข้าใจข้อความจำนวนมาก ช่วยให้สามารถวิเคราะห์และสรุปข้อมูลได้อย่างลึกซึ้ง

สัมผัสคุณสมบัติของ DeepSeek R1
