DeepSeek กลับมาเขย่าวงการ AI อีกครั้งด้วย DeepSeek-V3.2 และ V3.2-Speciale
บริษัท DeepSeek AI จากจีน ประกาศเปิดตัวโมเดลปัญญาประดิษฐ์รุ่นใหม่ล่าสุดสองตัว ได้แก่ DeepSeek-V3.2 และ DeepSeek-V3.2-Speciale ซึ่งถูกออกแบบมาเพื่อเน้นการใช้เหตุผล (reasoning-first) โดยเฉพาะสำหรับเอเจนต์ AI โดยทั้งสองโมเดลนี้ให้ประสิทธิภาพเทียบเท่าหรือเหนือกว่าโมเดลชั้นนำอย่าง GPT-5 ของ OpenAI และ Gemini 3.0 Pro ของ Google ในราคาที่ถูกกว่ามาก
DeepSeek-V3.2 ถือเป็นโมเดลหลักที่ปรับสมดุลระหว่างประสิทธิภาพการอนุมาน (inference) และความยาวของบริบท (context length) ทำให้เหมาะสำหรับการใช้งานประจำวัน เช่น การสนทนา การแก้ปัญหาทั่วไป และการทำงานร่วมกับเครื่องมือ (tool-use) โดยเป็นโมเดลแรกของ DeepSeek ที่รวม “การคิด” (thinking) เข้ากับการใช้เครื่องมือโดยตรง รองรับโหมด tool-use ทั้งในรูปแบบที่ใช้การคิดและไม่ใช้การคิด โมเดลนี้สามารถเข้าถึงได้ฟรีผ่านแอป เว็บไซต์ และ API ของ DeepSeek ในขณะที่ DeepSeek-V3.2-Speciale เป็นเวอร์ชันพิเศษที่เพิ่มพลังการคำนวณสูงสุด (high-compute variant) สำหรับงานที่ซับซ้อน เช่น การแก้โจทย์คณิตศาสตร์และการเขียนโค้ดขั้นสูง โดยโมเดลนี้ใช้ทรัพยากรโทเค็น (token) มากกว่า แต่ให้ผลลัพธ์ที่โดดเด่นยิ่งขึ้น
ประสิทธิภาพที่โดดเด่น: เหรียญทองในเวทีโอลิมปิกนานาชาติ
หนึ่งในไฮไลต์สำคัญคือ DeepSeek-V3.2-Speciale สามารถทำคะแนนระดับ “เหรียญทอง” (gold-medal performance) ในงานแข่งขันระดับโลกหลายรายการประจำปี 2568 ได้แก่:
- International Mathematical Olympiad (IMO 2025): คะแนน 35/42 คะแนน
- Chinese Mathematical Olympiad (CMO 2025): ผลงานระดับทอง
- International Olympiad in Informatics (IOI 2025): คะแนน 492/600 คะแนน (อันดับ 10)
- ICPC World Finals: แก้ปัญหาได้ 10/12 โจทย์ (อันดับ 2)
นอกจากนี้ โมเดลยังทำคะแนนสูงในบ enchmark อื่นๆ เช่น AIME 2025 (96.0%) และ Harvard-MIT Mathematics Tournament (99.2%) ซึ่งเหนือกว่า Gemini 3.0 Pro ในบางด้าน โดย DeepSeek อ้างว่าประสิทธิภาพนี้มาจากกรอบการเรียนรู้เสริมกำลังแบบขยายขนาด (Scalable Reinforcement Learning Framework) และวิธีการสังเคราะห์ข้อมูลฝึกสอนเอเจนต์ขนาดใหญ่ที่ครอบคลุมกว่า 1,800 สภาพแวดล้อมและ 85,000+ คำสั่งซับซ้อน
คะแนนสูงสุดใหม่ใน benchmark สำคัญหลายตัว (ข้อมูล 1 ธ.ค. 2025):
| Benchmark | DeepSeek-V3.2-Speciale | GPT-5 High | Gemini 3.0 Pro | Claude 4 Opus |
|---|---|---|---|---|
| GPQA Diamond | 88.4% | 86.9% | 87.2% | 85.8% |
| MATH-500 | 98.8% | 97.1% | 96.9% | 96.4% |
| AIME 2025 | 96.7% | 93.3% | 94.1% | 92.8% |
| CodeForces Rating | 2721 | 2589 | 2644 | 2599 |
| LiveCodeBench (Nov 2025) | 78.9% | 74.2% | 76.1% | 73.8% |
| AgentBench (Tool Use) | 82.3% | 79.8% | 80.4% | 78.9% |
จุดเด่นทางเทคนิคที่ต้องพูดถึง
- DeepSeek Sparse Attention (DSA)
เทคนิคใหม่ที่ทำให้โมเดลจัดการ context ยาว ๆ ได้ในราคาถูกมาก เหมาะกับงาน RAG, long-document analysis และ multi-turn agent อย่างแท้จริง - Agent Training Loop อัตโนมัติ
DeepSeek สร้างสภาพแวดล้อมทดสอบ agent มากกว่า 1,800 รูปแบบ ฝึกโมเดลให้เรียก tool, วางแผนหลายขั้นตอน และแก้บั๊กโค้ดได้เองโดยไม่ต้องมีมนุษย์เขียน reward model - ราคา API ที่ “ฆ่าทุกคน”
- Input: $0.07 / ล้านโทเคน
- Output: $0.28 / ล้านโทเคน
ถูกกว่า Grok 4 ถึง 4-5 เท่า และถูกกว่า Claude 4 Opus เกือบ 10 เท่า
“DeepSeek-V3.2-Speciale ถูกออกแบบสำหรับงานใช้เหตุผลลึกซึ้งโดยเฉพาะ และปัจจุบันรองรับเฉพาะ API เพื่อให้ชุมชนนักวิจัยสามารถทดสอบและประเมินผลได้” ทีม DeepSeek ระบุในประกาศ โดยโมเดลนี้ยังรวมโครงสร้างจาก DeepSeek-Math-V2 เพื่อเสริมความสามารถในการคิดแบบ chain-of-thought และการแก้ปัญหาหลายขั้นตอน
นวัตกรรมทางเทคนิค: ทำให้บริบทยาวถูกและเร็วขึ้น
ทั้งสองโมเดลใช้สถาปัตยกรรม Transformer ที่ปรับปรุงใหม่ โดยนำเสนอ “Dynamic Sparse Attention (DSA)” ซึ่งช่วยเพิ่มความเร็ว 2-3 เท่าและประหยัดหน่วยความจำ 30-40% สำหรับบริบทยาวๆ ทำให้การจัดการเอกสารหรือการสนทนาที่ยาวนานมีต้นทุนต่ำลงอย่างมาก DeepSeek-V3.2-Speciale ยังเป็นโมเดลโอเพ่นซอร์สที่ปล่อยโค้ดการอนุมาน CUDA kernels และการปรับใช้ข้ามแพลตฟอร์มภายใต้ใบอนุญาต MIT ซึ่งช่วยให้นักพัฒนาสามารถดาวน์โหลดและปรับแต่งได้ฟรีจาก Hugging Face
ลิงก์ดาวน์โหลดและทดลองใช้
- Official Model (V3.2): https://huggingface.co/deepseek-ai/DeepSeek-V3.2
- Playground ฟรี: https://chat.deepseek.com