DeepSeek
|

DeepSeek กลับมาเขย่าวงการ AI อีกครั้งด้วย DeepSeek-V3.2 และ V3.2-Speciale

บริษัท DeepSeek AI จากจีน ประกาศเปิดตัวโมเดลปัญญาประดิษฐ์รุ่นใหม่ล่าสุดสองตัว ได้แก่ DeepSeek-V3.2 และ DeepSeek-V3.2-Speciale ซึ่งถูกออกแบบมาเพื่อเน้นการใช้เหตุผล (reasoning-first) โดยเฉพาะสำหรับเอเจนต์ AI โดยทั้งสองโมเดลนี้ให้ประสิทธิภาพเทียบเท่าหรือเหนือกว่าโมเดลชั้นนำอย่าง GPT-5 ของ OpenAI และ Gemini 3.0 Pro ของ Google ในราคาที่ถูกกว่ามาก

DeepSeek-V3.2 ถือเป็นโมเดลหลักที่ปรับสมดุลระหว่างประสิทธิภาพการอนุมาน (inference) และความยาวของบริบท (context length) ทำให้เหมาะสำหรับการใช้งานประจำวัน เช่น การสนทนา การแก้ปัญหาทั่วไป และการทำงานร่วมกับเครื่องมือ (tool-use) โดยเป็นโมเดลแรกของ DeepSeek ที่รวม “การคิด” (thinking) เข้ากับการใช้เครื่องมือโดยตรง รองรับโหมด tool-use ทั้งในรูปแบบที่ใช้การคิดและไม่ใช้การคิด โมเดลนี้สามารถเข้าถึงได้ฟรีผ่านแอป เว็บไซต์ และ API ของ DeepSeek ในขณะที่ DeepSeek-V3.2-Speciale เป็นเวอร์ชันพิเศษที่เพิ่มพลังการคำนวณสูงสุด (high-compute variant) สำหรับงานที่ซับซ้อน เช่น การแก้โจทย์คณิตศาสตร์และการเขียนโค้ดขั้นสูง โดยโมเดลนี้ใช้ทรัพยากรโทเค็น (token) มากกว่า แต่ให้ผลลัพธ์ที่โดดเด่นยิ่งขึ้น

ประสิทธิภาพที่โดดเด่น: เหรียญทองในเวทีโอลิมปิกนานาชาติ

หนึ่งในไฮไลต์สำคัญคือ DeepSeek-V3.2-Speciale สามารถทำคะแนนระดับ “เหรียญทอง” (gold-medal performance) ในงานแข่งขันระดับโลกหลายรายการประจำปี 2568 ได้แก่:

  • International Mathematical Olympiad (IMO 2025): คะแนน 35/42 คะแนน
  • Chinese Mathematical Olympiad (CMO 2025): ผลงานระดับทอง
  • International Olympiad in Informatics (IOI 2025): คะแนน 492/600 คะแนน (อันดับ 10)
  • ICPC World Finals: แก้ปัญหาได้ 10/12 โจทย์ (อันดับ 2)

นอกจากนี้ โมเดลยังทำคะแนนสูงในบ enchmark อื่นๆ เช่น AIME 2025 (96.0%) และ Harvard-MIT Mathematics Tournament (99.2%) ซึ่งเหนือกว่า Gemini 3.0 Pro ในบางด้าน โดย DeepSeek อ้างว่าประสิทธิภาพนี้มาจากกรอบการเรียนรู้เสริมกำลังแบบขยายขนาด (Scalable Reinforcement Learning Framework) และวิธีการสังเคราะห์ข้อมูลฝึกสอนเอเจนต์ขนาดใหญ่ที่ครอบคลุมกว่า 1,800 สภาพแวดล้อมและ 85,000+ คำสั่งซับซ้อน

คะแนนสูงสุดใหม่ใน benchmark สำคัญหลายตัว (ข้อมูล 1 ธ.ค. 2025):

BenchmarkDeepSeek-V3.2-SpecialeGPT-5 HighGemini 3.0 ProClaude 4 Opus
GPQA Diamond88.4%86.9%87.2%85.8%
MATH-50098.8%97.1%96.9%96.4%
AIME 202596.7%93.3%94.1%92.8%
CodeForces Rating2721258926442599
LiveCodeBench (Nov 2025)78.9%74.2%76.1%73.8%
AgentBench (Tool Use)82.3%79.8%80.4%78.9%

จุดเด่นทางเทคนิคที่ต้องพูดถึง

  1. DeepSeek Sparse Attention (DSA)
    เทคนิคใหม่ที่ทำให้โมเดลจัดการ context ยาว ๆ ได้ในราคาถูกมาก เหมาะกับงาน RAG, long-document analysis และ multi-turn agent อย่างแท้จริง
  2. Agent Training Loop อัตโนมัติ
    DeepSeek สร้างสภาพแวดล้อมทดสอบ agent มากกว่า 1,800 รูปแบบ ฝึกโมเดลให้เรียก tool, วางแผนหลายขั้นตอน และแก้บั๊กโค้ดได้เองโดยไม่ต้องมีมนุษย์เขียน reward model
  3. ราคา API ที่ “ฆ่าทุกคน”
    • Input: $0.07 / ล้านโทเคน
    • Output: $0.28 / ล้านโทเคน
      ถูกกว่า Grok 4 ถึง 4-5 เท่า และถูกกว่า Claude 4 Opus เกือบ 10 เท่า

“DeepSeek-V3.2-Speciale ถูกออกแบบสำหรับงานใช้เหตุผลลึกซึ้งโดยเฉพาะ และปัจจุบันรองรับเฉพาะ API เพื่อให้ชุมชนนักวิจัยสามารถทดสอบและประเมินผลได้” ทีม DeepSeek ระบุในประกาศ โดยโมเดลนี้ยังรวมโครงสร้างจาก DeepSeek-Math-V2 เพื่อเสริมความสามารถในการคิดแบบ chain-of-thought และการแก้ปัญหาหลายขั้นตอน

นวัตกรรมทางเทคนิค: ทำให้บริบทยาวถูกและเร็วขึ้น

ทั้งสองโมเดลใช้สถาปัตยกรรม Transformer ที่ปรับปรุงใหม่ โดยนำเสนอ “Dynamic Sparse Attention (DSA)” ซึ่งช่วยเพิ่มความเร็ว 2-3 เท่าและประหยัดหน่วยความจำ 30-40% สำหรับบริบทยาวๆ ทำให้การจัดการเอกสารหรือการสนทนาที่ยาวนานมีต้นทุนต่ำลงอย่างมาก DeepSeek-V3.2-Speciale ยังเป็นโมเดลโอเพ่นซอร์สที่ปล่อยโค้ดการอนุมาน CUDA kernels และการปรับใช้ข้ามแพลตฟอร์มภายใต้ใบอนุญาต MIT ซึ่งช่วยให้นักพัฒนาสามารถดาวน์โหลดและปรับแต่งได้ฟรีจาก Hugging Face

ลิงก์ดาวน์โหลดและทดลองใช้