AMD เผยวิสัยทัศน์ระบบนิเวศ AI แบบเปิด พร้อมเปิดตัวฮาร์ดแวร์ ซอฟต์แวร์ และระบบใหม่ในงาน Advancing AI 2025
— AMD เป็นเพียงรายเดียวที่รองรับ AI ได้ครบทุกด้าน โดยรวม GPU, CPU, ระบบเครือข่าย และซอฟต์แวร์แบบเปิดเข้าไว้ด้วยกัน เพื่อมอบความยืดหยุ่นและประสิทธิภาพที่เหนือกว่า —
— Meta, OpenAI, xAI, Oracle, Microsoft, Cohere, HUMAIN, Red Hat, Astera Labs และ Marvell ร่วมแบ่งปันแนวทางความร่วมมือกับ AMD ในการพัฒนาโซลูชัน AI —
12 มิถุนายน 2025 — AMD ได้นำเสนอวิสัยทัศน์ของแพลตฟอร์ม AI แบบบูรณาการที่ครบวงจร พร้อมแนะนำโครงสร้างพื้นฐาน AI ในระดับแร็คแบบเปิดและสามารถปรับขยายได้ตามมาตรฐานอุตสาหกรรม ในงาน Advancing AI 2025
“AMD กำลังขับเคลื่อนนวัตกรรม AI ด้วยความเร็วที่ไม่เคยมีมาก่อน ซึ่งสะท้อนผ่านการเปิดตัวตัวเร่ง AMD Instinct MI350 ซีรีส์ ความก้าวหน้าในโซลูชันแร็คระดับถัดไป ‘Helios’ และแรงผลักดันที่เพิ่มขึ้นของซอฟต์แวร์แบบเปิด ROCm” ดร. ลิซ่า ซู ประธานและซีอีโอของ AMD กล่าว “เรากำลังก้าวเข้าสู่ยุคถัดไปของ AI ที่ขับเคลื่อนด้วยมาตรฐานเปิด นวัตกรรมร่วมกัน และความเป็นผู้นำของ AMD ที่ขยายไปทั่วระบบนิเวศฮาร์ดแวร์และซอฟต์แวร์”

AMD มอบโซลูชันชั้นนำเพื่อเร่งการเติบโตของระบบนิเวศ AI แบบเปิด
AMD ได้ประกาศพอร์ตโฟลิโอของฮาร์ดแวร์ ซอฟต์แวร์ และโซลูชันที่หลากหลายเพื่อรองรับการประมวลผล AI อย่างครอบคลุม:
- AMD ได้เปิดตัวจีพียูซีรีส์ Instinct MI350 ซึ่งสร้างมาตรฐานใหม่ในด้านประสิทธิภาพ การใช้พลังงานอย่างคุ้มค่า และความสามารถในการขยายสำหรับ Generative AI และการประมวลผลสมรรถนะสูง (HPC) โดยซีรีส์ MI350 ซึ่งประกอบด้วย MI350X และ MI355X พร้อมแพลตฟอร์มใหม่ มอบพลังประมวลผล AI สูงขึ้น 4 เท่าจากรุ่นก่อนหน้า และประสิทธิภาพในการประมวลผล (inferencing) สูงขึ้นถึง 35 เท่า ซึ่งจะช่วยเร่งให้เกิดโซลูชัน AI ที่เปลี่ยนแปลงโลกได้ในหลายอุตสาหกรรม นอกจากนี้ MI355X ยังให้ความคุ้มค่าในการใช้งานมากขึ้น ด้วยจำนวน token ต่อดอลลาร์สูงขึ้นถึง 40% เมื่อเทียบกับโซลูชันคู่แข่ง
- AMD ได้สาธิตโครงสร้างพื้นฐาน AI ระดับแร็คแบบเปิดครบวงจร ซึ่งได้เริ่มติดตั้งด้วย MI350 Series, โปรเซสเซอร์ AMD EPYC™ รุ่นที่ 5 และการ์ดเน็ตเวิร์ก AMD Pensando™ Pollara NICs แล้วในระบบคลาวด์ระดับ hyperscaler อย่าง Oracle Cloud Infrastructure (OCI) และจะวางจำหน่ายในวงกว้างในช่วงครึ่งหลังของปี 2025
- AMD ยังได้พรีวิวโครงสร้าง AI ระดับแร็ครุ่นถัดไปที่มีชื่อว่า “Helios” โดยจะสร้างขึ้นจากจีพียู AMD Instinct MI400 Series รุ่นใหม่ ซึ่งเมื่อเทียบกับรุ่นก่อน คาดว่าจะให้ประสิทธิภาพการรันโมเดลแบบ Mixture of Experts สูงขึ้นถึง 10 เท่า รวมถึงใช้ซีพียู AMD EPYC “Venice” ที่สร้างบนสถาปัตยกรรม “Zen 6” และการ์ดเครือข่าย AMD Pensando “Vulcano”
- ซอฟต์แวร์สแตกแบบโอเพนซอร์สเวอร์ชันล่าสุด ROCm 7 ของ AMD ได้รับการออกแบบเพื่อตอบสนองต่อความต้องการที่เพิ่มขึ้นของเวิร์กโหลด AI เชิงสร้างสรรค์และการประมวลผลสมรรถนะสูง พร้อมยกระดับประสบการณ์ของนักพัฒนาอย่างมาก ROCm 7 รองรับ framework มาตรฐานอุตสาหกรรมได้ดีขึ้น รองรับฮาร์ดแวร์ได้หลากหลายมากขึ้น และมาพร้อมเครื่องมือใหม่ ไดรเวอร์ API และไลบรารีที่ช่วยเร่งการพัฒนาและการใช้งาน AI รายละเอียดเพิ่มเติมมีในบล็อกโดย Anush Elangovan รองประธานฝ่ายพัฒนาซอฟต์แวร์ AI ของ AMD
- Instinct MI350 Series ยังทำได้เกินกว่าเป้าหมาย 5 ปีของ AMD ที่ต้องการเพิ่มประสิทธิภาพการใช้พลังงานสำหรับ AI training และ HPC node ขึ้น 30 เท่า โดยสามารถเพิ่มขึ้นได้ถึง 38 เท่า AMD ยังประกาศเป้าหมายใหม่ในปี 2030 ที่จะเพิ่มประสิทธิภาพการใช้พลังงานในระดับแร็คขึ้นอีก 20 เท่า เมื่อเทียบกับปีฐาน 2024 ซึ่งจะช่วยให้โมเดล AI ทั่วไปที่ปัจจุบันต้องใช้แร็คกว่า 275 ตัวสำหรับการฝึกฝน สามารถรันได้ในแร็คเดียว และใช้ไฟฟ้าน้อยลงถึง 95%
- AMD ยังประกาศเปิดให้ใช้งาน AMD Developer Cloud ทั่วโลกอย่างเป็นทางการ เพื่อชุมชนนักพัฒนาและโอเพนซอร์ส ซึ่งสร้างขึ้นโดยเฉพาะเพื่อรองรับการพัฒนา AI อย่างรวดเร็วและมีประสิทธิภาพสูง โดยผู้ใช้จะสามารถเข้าถึงสภาพแวดล้อมคลาวด์ที่บริหารจัดการให้พร้อมใช้ และมีเครื่องมือและความยืดหยุ่นสำหรับเริ่มต้นและขยายโครงการ AI ได้อย่างไร้ขีดจำกัด ด้วย ROCm 7 และ Developer Cloud นี้ AMD กำลังลดอุปสรรคและเปิดโอกาสให้ทุกคนเข้าถึงการประมวลผลล้ำสมัย การร่วมมือเชิงกลยุทธ์กับผู้นำอย่าง Hugging Face, OpenAI และ Grok เป็นตัวอย่างของพลังแห่งการสร้างร่วมกันบนพื้นฐานแบบเปิด
ระบบนิเวศพันธมิตรที่แข็งแกร่งร่วมแสดงความก้าวหน้า AI ที่ขับเคลื่อนโดย AMD
ในวันนี้ บริษัทผู้สร้างโมเดล AI และบริษัท AI ชั้นนำ 7 จาก 10 รายใหญ่ที่สุดของโลกกำลังรันเวิร์กโหลดการผลิตด้วย Instinct accelerators ซึ่งรวมถึง Meta, OpenAI, Microsoft และ xAI ที่เข้าร่วมกับ AMD และพันธมิตรอื่น ๆ ในงาน Advancing AI เพื่อแบ่งปันวิธีที่พวกเขาทำงานร่วมกับ AMD เพื่อพัฒนาโซลูชัน AI สำหรับฝึกโมเดลชั้นนำในปัจจุบัน รัน inferencing ในระดับมหาศาล และเร่งการวิจัยและพัฒนา AI:
- Meta ให้รายละเอียดว่ามีการใช้ Instinct MI300X อย่างแพร่หลายสำหรับการประมวลผล Llama 3 และ Llama 4 พร้อมแสดงความตื่นเต้นเกี่ยวกับ MI350 ที่มีพลังการประมวลผลสูง ประสิทธิภาพต่อค่าใช้จ่าย (performance-per-TCO) ที่ดีเยี่ยม และหน่วยความจำรุ่นถัดไป Meta ยังคงทำงานอย่างใกล้ชิดกับ AMD เกี่ยวกับแผนงาน AI รวมถึงแผนการใช้แพลตฟอร์ม MI400 Series
- Sam Altman ซีอีโอของ OpenAI กล่าวถึงความสำคัญของการออกแบบฮาร์ดแวร์ ซอฟต์แวร์ และอัลกอริธึมให้เหมาะสมแบบองค์รวม และเน้นย้ำถึงความร่วมมืออย่างแน่นแฟ้นกับ AMD ด้านโครงสร้างพื้นฐาน AI โดยมีการใช้งานจริงของโมเดล GPT บน Azure โดยใช้ MI300X พร้อมกับความร่วมมือเชิงลึกในการออกแบบแพลตฟอร์ม MI400 Series ร่วมกัน
- Oracle Cloud Infrastructure (OCI) เป็นหนึ่งในผู้ใช้รายแรกที่นำโครงสร้างพื้นฐาน AI ระดับแร็คแบบเปิดของ AMD มาใช้ โดยใช้จีพียู AMD Instinct MI355X OCI ใช้ทั้งซีพียูและจีพียูของ AMD เพื่อมอบประสิทธิภาพที่สมดุลและสามารถขยายได้สำหรับคลัสเตอร์ AI และประกาศว่าจะเปิดตัวคลัสเตอร์ AI ขนาด zettascale ที่ใช้จีพียู MI355X สูงสุดถึง 131,072 หน่วย เพื่อให้ลูกค้าสามารถพัฒนา ฝึก และประมวลผล AI ได้ในระดับมหาศาล
- HUMAIN กล่าวถึงข้อตกลงระดับหลัก (landmark agreement) กับ AMD เพื่อสร้างโครงสร้างพื้นฐาน AI ที่เปิด ยืดหยุ่น แข็งแรง และประหยัดต้นทุน โดยใช้แพลตฟอร์มการประมวลผลเต็มรูปแบบที่มีเพียง AMD เท่านั้นที่สามารถมอบให้ได้
- Microsoft ประกาศว่า Instinct MI300X ได้ถูกใช้งานจริงใน Azure เพื่อรันทั้งโมเดลที่พัฒนาเองและโอเพนซอร์ส
- Cohere แบ่งปันว่าโมเดล Command ประสิทธิภาพสูงของตน ถูกใช้งานบน MI300X เพื่อประมวลผล LLM สำหรับองค์กรที่ต้องการ throughput สูง ประสิทธิภาพการใช้พลังงานดีเยี่ยม และความเป็นส่วนตัวของข้อมูล
- Red Hat กล่าวถึงการขยายความร่วมมือกับ AMD ที่จะช่วยให้สามารถสร้างสภาพแวดล้อม AI ที่พร้อมใช้งานจริงได้ โดยใช้ AMD Instinct GPUs บน Red Hat OpenShift AI ซึ่งช่วยให้สามารถรัน AI อย่างมีประสิทธิภาพบนคลาวด์แบบไฮบริด
- Astera Labs เน้นว่า ecosystem แบบเปิดของ UALink เร่งนวัตกรรมและมอบคุณค่ามากขึ้นให้กับลูกค้า พร้อมแผนจะนำเสนอพอร์ตโฟลิโอผลิตภัณฑ์ UALink ที่ครอบคลุม เพื่อรองรับโครงสร้างพื้นฐาน AI รุ่นถัดไป
- Marvell เข้าร่วมกับ AMD เพื่อเน้นย้ำความร่วมมือในฐานะส่วนหนึ่งของ UALink Consortium ที่กำลังพัฒนา interconnect แบบเปิด เพื่อมอบความยืดหยุ่นขั้นสูงสุดให้กับโครงสร้างพื้นฐาน AI
แหล่งข้อมูลสนับสนุน
- เรียนรู้เพิ่มเติมเกี่ยวกับงานนี้ได้ที่: https://www.amd.com/en/corporate/events/advancing-ai.html
- เรียนรู้เพิ่มเติมเกี่ยวกับโซลูชัน AI ของ AMD: https://www.amd.com/en/solutions/ai.html
เกี่ยวกับ AMD
ตลอดระยะเวลากว่า 55 ปี AMD ได้ขับเคลื่อนนวัตกรรมในด้านการประมวลผลสมรรถนะสูง กราฟิก และเทคโนโลยีการแสดงผล ผู้บริโภคหลายร้อยล้านคน ธุรกิจในกลุ่ม Fortune 500 และสถาบันวิจัยทางวิทยาศาสตร์ชั้นนำทั่วโลก ต่างพึ่งพาเทคโนโลยีของ AMD เพื่อยกระดับวิถีชีวิต การทำงาน และความบันเทิงของพวกเขา พนักงานของ AMD มุ่งมั่นในการพัฒนาและสร้างสรรค์ผลิตภัณฑ์ที่มีสมรรถนะสูงและสามารถปรับเปลี่ยนได้ เพื่อล้ำขอบเขตของสิ่งที่เป็นไปได้ หากต้องการข้อมูลเพิ่มเติมเกี่ยวกับวิธีที่ AMD กำลังสร้างสรรค์วันนี้และจุดประกายวันพรุ่งนี้ สามารถเยี่ยมชมได้ที่ www.amd.com


You must be logged in to post a comment.