AMD และ Intel จับมือผลักดันชุดคำสั่ง AI ใหม่บน x86 ชื่อ “ACE” โดยจะรวมเข้ากับ AVX10
ฮไลท์สำคัญ
- AMD และ Intel ร่วมกันออกแบบชุดคำสั่ง AI ใหม่สำหรับสถาปัตยกรรม x86 ภายใต้ชื่อ ACE (AI Compute Extensions) พร้อมเผยแพร่เอกสาร whitepaper ชุดแรกแล้ว
- ACE ถูกออกแบบให้เป็น “มาตรฐานกลาง” สำหรับเร่งความเร็วงานเมทริกซ์บน x86 และจะผนวกเข้ากับ AVX10 แทนการแยกชุดคำสั่งคนละค่ายแบบในอดีต
- รองรับข้อมูล INT8, FP8, BF16 และฟอร์แมตยอดนิยมในงาน AI หลายแบบ พร้อมเตรียมผูกเข้ากับ PyTorch, TensorFlow, NumPy, SciPy ฯลฯ
- เคลมว่าทำความหนาแน่นการคำนวณได้สูงกว่า AVX10 แบบ Multiply-Accumulate เดิมสูงสุดถึง 16 เท่า ภายใต้จำนวนเวกเตอร์อินพุตเท่ากัน
- ซีพียู x86 ที่รองรับ ACE ยังไม่เปิดเผยช่วงวางขาย ตอนนี้อยู่ในระดับสเปกมาตรฐาน รอเจเนอเรชันถัดไปนำไปใช้จริง
ACE: มาตรฐาน AI ใหม่บน x86
ในปี 2024 AMD และ Intel ตั้งกลุ่ม “x86 Ecosystem Advisory Group (EAG)” เพื่อผลักดันการ “มาตรฐานกลาง” ให้กับฟีเจอร์สำคัญของแพลตฟอร์ม x86 โดยประกาศ 4 ฟีเจอร์หลัก ได้แก่ FRED, AVX10, ChkTag และ ACE ซึ่ง ACE คือส่วนที่โฟกัสด้าน AI โดยตรง
ACE ถูกนิยามเป็นสถาปัตยกรรมเร่งความเร็วเมทริกซ์มาตรฐานสำหรับ x86 เน้นให้สเกลได้ตั้งแต่โน้ตบุ๊กไปจนถึงซูเปอร์คอมพิวเตอร์ เพื่อลดปัญหาชุดคำสั่งแตกสายเหมือนยุค AVX‑512 ที่ Intel ลุยเดี่ยวแล้ว AMD เข้าช้าจนกลายเป็นภาระฝั่งนักพัฒนา
ในอดีต SIMD บน x86 มีปัญหาชัดเจนทั้งในมุมรองรับฮาร์ดแวร์และซอฟต์แวร์ ทำให้หลายแอปเลือกใช้ฟีเจอร์ได้น้อยลงเพื่อรักษาความเข้ากันได้ ACE จึงถูกออกแบบตั้งแต่ต้นให้เป็นงานร่วมมือสองค่าย เพื่อลดแรงเสียดทานและเปิดทางให้ซอฟต์แวร์สามารถใช้ประโยชน์จาก AI acceleration ได้อย่างสม่ำเสมอใน ecosystem เดียวกัน
ผนวกเข้ากับ AVX10 และเคลมว่าแรงกว่า 16 เท่า
หัวใจของ ACE คือการเร่งความเร็ว “Matrix Multiplication” ด้วยแนวคิด outer‑product engine ที่ทำงานร่วมกับ AVX10 แทนที่จะเป็นบล็อกแยกต่างหาก เมื่อเทียบที่จำนวนเวกเตอร์อินพุตเท่ากัน ACE เคลมว่าทำความหนาแน่นการคำนวณ (compute density) ได้สูงกว่า AVX10 แบบ Multiply‑Accumulate เดิมถึง 16 เท่า ซึ่งเหมาะกับโหลดงาน AI ที่เน้นคูณเมทริกซ์ขนาดใหญ่ต่อเนื่อง
ด้านชนิดข้อมูล ACE รองรับฟอร์แมตยอดนิยมในงาน AI แทบครบ เช่น INT8, OCP FP8, OCP MXFP8, OCP MXINT8 และ BF16 ช่วยให้รองรับทั้งงาน inferencing แบบ low‑precision และงาน training/ fine‑tune ที่ต้องการความแม่นยำมากขึ้น
บนฝั่งซอฟต์แวร์ AMD และ Intel ระบุว่ากำลังเดินหน้าบูรณาการ ACE เข้ากับเฟรมเวิร์กหลักอย่าง PyTorch, TensorFlow รวมถึงไลบรารีสายวิทยาศาสตร์ข้อมูลบน Python เช่น NumPy และ SciPy เพื่อให้ dev สามารถเรียกใช้ผ่าน API ระดับสูงได้โดยตรง
ยังไม่มีไทม์ไลน์ฮาร์ดแวร์ แต่ชัดเจนว่าเล็งสู้ NVIDIA
แม้สเปก ACE จะชัดเจนระดับ whitepaper แล้ว แต่ทั้ง AMD และ Intel ยังไม่เปิดเผยว่าซีพียู x86 รุ่นใดจะรองรับชุดคำสั่งใหม่นี้เป็นรุ่นแรก รวมถึงยังไม่ระบุกรอบเวลาในการวางจำหน่ายอย่างเป็นรูปธรรม สำหรับผู้ใช้ปลายทาง นั่นหมายความว่าผลลัพธ์ด้านความแรง AI บนซีพียู x86 จะยังไม่เกิดขึ้นทันที และต้องรอให้เจเนอเรชันใหม่ที่รองรับ ACE ลงตลาดก่อนจึงจะสัมผัสความต่างได้จริง
ในภาพรวม ACE ถูกมองเป็นหนึ่งในหมากยุทธศาสตร์ของฝั่ง x86 เพื่อตอบโต้ NVIDIA ที่มีทั้ง GPU และ AI accelerator แบบเฉพาะทางอยู่แล้ว แม้แต่ Jensen Huang ซีอีโอของ NVIDIA เองยังยอมรับว่าความร่วมมือระหว่าง AMD และ Intel เป็นสิ่งจำเป็นต่อการอยู่รอดของสถาปัตยกรรม x86 ในยุค AI เพราะในเวลานี้ทั้ง Arm และ RISC-V ก็กำลังรุกคืบเข้ามาสู่ตลาด CPU มากขึ้นเรื่อย ๆ โดยเฉพาะทางฝั่ง Data Center ที่ไม่มีการผูกขาดเรื่องสถาปัตยกรรมของซีพียูมาเป็นระยะเวลาหนึ่งแล้ว
