Qualcomm เปิดตัวชิป AI200 และ AI250 นิยามใหม่แห่งประสิทธิภาพ AI ใน Data Center ด้วย TCO ที่เหนือกว่า
Qualcomm Technologies, Inc. ประกาศเปิดตัวโซลูชันเร่งความเร็ว AI (AI Inference-optimized solutions) สำหรับ Data Center ยุคใหม่ ได้แก่ การ์ดและ Rack เร่งความเร็วที่ใช้ชิป Qualcomm® AI200 และ AI250 โซลูชันใหม่นี้ต่อยอดจากความเป็นผู้นำด้านเทคโนโลยี NPU (Neural Processing Unit) ของบริษัท โดยมุ่งเน้นที่การประมวลผล Generative AI ในระดับ Rack-Scale ที่มาพร้อมประสิทธิภาพสูงต่อดอลลาร์ต่อวัตต์ และความสามารถในการรองรับหน่วยความจำที่เหนือกว่า เพื่อการนำ AI ไปใช้งานในอุตสาหกรรมต่าง ๆ อย่างมีประสิทธิภาพและยืดหยุ่น
ไฮไลท์สำคัญของโซลูชันใหม่
- ประสิทธิภาพระดับ Rack-Scale และ TCO ที่ต่ำ: โซลูชัน Qualcomm AI200 และ AI250 มอบประสิทธิภาพการประมวลผล Generative AI Inference ระดับ Rack-Scale พร้อมความจุหน่วยความจำที่เหนือกว่า โดยมีต้นทุนรวมในการเป็นเจ้าของ (TCO) ที่ต่ำที่สุดในอุตสาหกรรม.
- สถาปัตยกรรมหน่วยความจำล้ำหน้าใน AI250: ชิป Qualcomm AI250 เปิดตัวด้วยสถาปัตยกรรมหน่วยความจำแบบใหม่ (Near-Memory Computing) ที่นำมาซึ่งประสิทธิภาพและแบนด์วิดท์หน่วยความจำที่สูงขึ้นกว่า 10 เท่า เมื่อเทียบกับรุ่นก่อนหน้า พร้อมลดการใช้พลังงานอย่างมากสำหรับการประมวลผล AI.
- รองรับด้วย Software Stack ระดับมืออาชีพ: ทั้งสองโซลูชันมาพร้อมชุดซอฟต์แวร์ที่ครอบคลุมและเข้ากันได้กับเฟรมเวิร์ก AI ชั้นนำ เพื่อให้นักพัฒนาสามารถปรับใช้ Generative AI ได้อย่างรวดเร็ว ปลอดภัย และปรับขนาดได้.
- กำหนดการพัฒนาประจำปี: ผลิตภัณฑ์เหล่านี้เป็นส่วนหนึ่งของแผนงานพัฒนาชิป AI สำหรับ Data Center ที่มีกำหนดการเปิดตัวผลิตภัณฑ์ใหม่เป็นประจำทุกปี.
เจาะลึกความสามารถของแต่ละรุ่น
Qualcomm AI200:
ถูกออกแบบมาเพื่อเป็นโซลูชัน AI Inference ระดับ Rack-Level โดยเฉพาะ เน้นมอบ TCO ที่ต่ำที่สุดและประสิทธิภาพที่เหมาะสมที่สุดสำหรับโมเดลภาษาขนาดใหญ่ (LLM) และโมเดลหลายรูปแบบ (LMM) รวมถึงเวิร์กโหลด AI อื่น ๆ จุดเด่นคือการรองรับหน่วยความจำ LPDDR ขนาด 768 GB ต่อการ์ด ทำให้มีหน่วยความจำสูงในราคาที่คุ้มค่า ช่วยให้การประมวลผล AI Inference มีความยืดหยุ่นและปรับขนาดได้เป็นพิเศษ
Qualcomm AI250:
เป็นโซลูชันที่มาพร้อมสถาปัตยกรรมหน่วยความจำที่ปฏิวัติวงการ โดยอิงจากแนวคิด Near-Memory Computing ซึ่งช่วยเพิ่มประสิทธิภาพและประสิทธิผลสำหรับการประมวลผล AI Inference ได้อย่างก้าวกระโดด ด้วยแบนด์วิดท์หน่วยความจำที่มีประสิทธิภาพสูงกว่า 10 เท่า และลดการใช้พลังงานลงอย่างมาก เทคโนโลยีนี้ช่วยให้สามารถแยกส่วน (Disaggregated) การประมวลผล AI Inference ได้อย่างมีประสิทธิภาพสูงสุด
คุณสมบัติร่วมและการรองรับซอฟต์แวร์
ทั้ง AI200 และ AI250 ในรูปแบบ Rack Solution ต่างมีคุณสมบัติที่น่าสนใจร่วมกัน เช่น ระบบระบายความร้อนด้วยของเหลวโดยตรง (Direct Liquid Cooling) เพื่อประสิทธิภาพการจัดการความร้อน, การเชื่อมต่อ PCIe สำหรับการขยายขนาดภายใน (Scale Up), Ethernet สำหรับการขยายระหว่าง Rack (Scale Out), และเทคโนโลยี Confidential Computing เพื่อความปลอดภัยของเวิร์กโหลด AI โดยมีกำลังไฟฟ้ารวมของ Rack อยู่ที่ 160 กิโลวัตต์
นาย Durga Malladi, SVP & GM, Technology Planning, Edge Solutions & Data Center, Qualcomm Technologies, Inc. กล่าวว่า: “ด้วย Qualcomm AI200 และ AI250 เรากำลังกำหนดนิยามใหม่ของความเป็นไปได้สำหรับการประมวลผล AI Inference ระดับ Rack-Scale โซลูชันโครงสร้างพื้นฐาน AI ที่เป็นนวัตกรรมใหม่เหล่านี้ช่วยให้ลูกค้าสามารถปรับใช้ Generative AI ด้วย TCO ที่ไม่เคยมีมาก่อน ในขณะที่ยังคงความยืดหยุ่นและความปลอดภัยที่ Data Center สมัยใหม่ต้องการ”
Qualcomm ยังได้พัฒนา Software Stack ระดับ Hyperscaler ที่ครอบคลุมตั้งแต่ Application Layer ไปจนถึง System Software Layer ซึ่งได้รับการปรับให้เหมาะสมสำหรับการประมวลผล AI Inference โดยเฉพาะ รองรับเฟรมเวิร์ก ML และ Generative AI ชั้นนำ รวมถึงเทคนิคการเพิ่มประสิทธิภาพ LLM/LMM นักพัฒนาสามารถใช้งานโมเดลจาก Hugging Face ได้อย่างง่ายดายด้วย Qualcomm Technologies’ Efficient Transformers Library และ Qualcomm AI Inference Suite
กำหนดการวางจำหน่าย
Qualcomm AI200 คาดว่าจะวางจำหน่ายเชิงพาณิชย์ในปี 2026 และ AI250 จะตามมาในปี 2027 ทั้งนี้ Qualcomm Technologies มุ่งมั่นที่จะรักษากำหนดการพัฒนาชิป Data Center ด้วยรอบการเปิดตัวผลิตภัณฑ์ใหม่เป็นประจำทุกปี โดยเน้นที่ประสิทธิภาพ AI Inference ที่ดีที่สุดในอุตสาหกรรม ประสิทธิภาพการใช้พลังงาน และ TCO ที่เหนือกว่า.
ที่มา: Qualcomm Technologies, Inc.
