NVIDIA MGX มอบความสะดวกให้ผู้สร้างระบบ สร้างสถาปัตยกรรมแบบแยกส่วน ตอบสนองการประมวลผลแบบเร่งความเร็วที่หลากหลายในโลกของศูนย์ข้อมูล
เพื่อตอบสนองความต้องการด้านการประมวลผลแบบเร่งความเร็วที่หลากหลายของในโลกของศูนย์ข้อมูล NVIDIA ได้เปิดตัวข้อกําหนดเซิร์ฟเวอร์ NVIDIA MGX™ ซึ่งให้สถาปัตยกรรมอ้างอิงแบบแยกส่วนแก่ผู้ผลิตระบบเพื่อสร้างเซิร์ฟเวอร์มากกว่า 100 รูปแบบอย่างรวดเร็วและคุ้มค่าเพื่อให้เหมาะกับ AI ที่หลากหลาย การประมวลผลประสิทธิภาพสูง และแอปพลิเคชัน Omniverse
ASRock Rack, ASUS, GIGABYTE, Pegatron, QCT และ Supermicro จะใช้ MGX ซึ่งสามารถลดต้นทุนการพัฒนาได้ถึงสามในสี่และลดเวลาในการพัฒนาลงสองในสามเหลือเพียงหกเดือน
“องค์กรต่าง ๆ กำลังมองหาตัวเลือกการประมวลผลที่เร่งความเร็วมากขึ้น เมื่อออกแบบดาต้าเซ็นเตอร์ที่ตอบสนองความต้องการทางธุรกิจและแอปพลิเคชั่นเฉพาะของตน” Kaustubh Sanghani รองประธานฝ่ายผลิตภัณฑ์ GPU ของ NVIDIA กล่าว “เราสร้าง MGX ขึ้นมาเพื่อช่วยให้องค์กรสามารถเริ่มต้นระบบ AI ขององค์กรได้ ในขณะเดียวกันก็ประหยัดเวลาและเงินจำนวนมาก”
ด้วย MGX ผู้ผลิตจะเริ่มต้นด้วยสถาปัตยกรรมระบบพื้นฐานที่ได้รับการปรับให้เหมาะสมสำหรับการเร่งการประมวลผลสำหรับแชสซีเซิร์ฟเวอร์ จากนั้นจึงเลือก GPU, DPU และ CPU รูปแบบการออกแบบสามารถจัดการกับเวิร์กโหลดที่ไม่ซ้ำกัน เช่น HPC, วิทยาศาสตร์ข้อมูล, โมเดลภาษาขนาดใหญ่, Edge computing, กราฟิกและวิดีโอ, AI ขององค์กร, การออกแบบและการจำลอง สามารถจัดการงานหลายอย่าง เช่น การฝึกอบรม AI และ 5G ได้ในเครื่องเดียว ในขณะที่การอัปเกรดเป็นฮาร์ดแวร์รุ่นใหม่ในอนาคตก็สามารถทำได้อย่างราบรื่น MGX ยังสามารถรวมเข้ากับระบบคลาวด์และศูนย์ข้อมูลขององค์กรได้อย่างง่ายดาย

ความร่วมมือกับผู้นําในอุตสาหกรรม
QCT และ Supermicro จะเป็นผลิตภัณฑ์แรกในตลาด โดยการออกแบบ MGX จะพร้อมในเดือนสิงหาคม ระบบ ARS-221GL-NR ของ Supermicro ที่ประกาศในวันนี้ จะรวม NVIDIA Grace™ CPU Superchip ในขณะที่ระบบ S74G-2U ของ QCT ที่ประกาศในวันนี้ จะใช้ NVIDIA GH200 Grace Hopper Superchip
นอกจากนี้ SoftBank Corp. วางแผนที่จะเปิดตัวศูนย์ข้อมูลแบบไฮเปอร์สเกลหลายแห่งทั่วประเทศญี่ปุ่น และใช้ MGX เพื่อจัดสรรทรัพยากร GPU แบบไดนามิกระหว่างแอปพลิเคชัน Generative AI และ 5G
“ในขณะที่ Generative AI แทรกซึมอยู่ในธุรกิจและไลฟ์สไตล์ของผู้บริโภค การสร้างโครงสร้างพื้นฐานที่เหมาะสมสำหรับต้นทุนที่เหมาะสมจึงเป็นหนึ่งในความท้าทายที่ยิ่งใหญ่ที่สุดของผู้ให้บริการเครือข่าย” Junichi Miyakawa ประธานและซีอีโอของ SoftBank Corp กล่าว “เราคาดหวังว่า NVIDIA MGX จะสามารถรับมือกับความท้าทายดังกล่าวได้ และอนุญาตให้ใช้งาน AI, 5G และอื่น ๆ อีกมากมายขึ้นอยู่กับความต้องการปริมาณงานตามเวลาจริง”
การออกแบบที่แตกต่างกันสําหรับความต้องการที่แตกต่างกัน
ศูนย์ข้อมูลจําเป็นต้องตอบสนองความต้องการมากขึ้นสําหรับทั้งความสามารถในการประมวลผลที่เพิ่มขึ้นและการลดการปล่อยก๊าซคาร์บอนเพื่อต่อสู้กับการเปลี่ยนแปลงสภาพภูมิอากาศในขณะเดียวกันก็ลดต้นทุนให้ต่ำลง
เซิร์ฟเวอร์การประมวลผลแบบเร่งความเร็วจาก NVIDIA ได้ให้ประสิทธิภาพการประมวลผลที่ยอดเยี่ยมและประสิทธิภาพการใช้พลังงานมาอย่างยาวนาน ตอนนี้การออกแบบโมดูลาร์ของ MGX ช่วยให้ผู้ผลิตระบบสามารถตอบสนองงบประมาณเฉพาะของลูกค้าแต่ละรายการส่งพลังงานการออกแบบความร้อนและความต้องการทางกลได้อย่างมีประสิทธิภาพมากขึ้น
ฟอร์มแฟคเตอร์หลายแบบให้ความยืดหยุ่นสูงสุด
MGX ทํางานร่วมกับฟอร์มแฟคเตอร์ที่แตกต่างกันและเข้ากันได้กับฮาร์ดแวร์ NVIDIA รุ่นปัจจุบันและอนาคต รวมถึง:
- Chassis: 1U, 2U, 4U (ระบายความร้อนด้วยอากาศหรือของเหลว)
- GPU: พอร์ตโฟลิโอ NVIDIA GPU เต็มรูปแบบรวมถึง H100, L40, L4 ล่าสุด
- CPU: NVIDIA Grace CPU Superchip, GH200 Grace Hopper Superchip, x86 CPUs
- Networking: NVIDIA BlueField-3® DPU, อะแดปเตอร์เครือข่าย ConnectX-7®
MGX แตกต่างจาก NVIDIA HGX™ ตรงที่มอบความยืดหยุ่นและความเข้ากันได้หลายรุ่นกับผลิตภัณฑ์ NVIDIA เพื่อให้แน่ใจว่าผู้สร้างระบบสามารถนำการออกแบบที่มีอยู่กลับมาใช้ซ้ำได้ และปรับใช้ผลิตภัณฑ์รุ่นต่อไปได้อย่างง่ายดายโดยไม่ต้องออกแบบใหม่ราคาแพง ในทางกลับกัน HGX นั้นใช้พื้นฐาน GPU หลายตัวที่เชื่อมต่อกับ NVLink® ซึ่งปรับให้เหมาะกับขนาดเพื่อสร้างสุดยอดระบบ AI และ HPC
ซอฟต์แวร์เพื่อขับเคลื่อนการเร่งความเร็ว
นอกจากฮาร์ดแวร์แล้ว MGX ยังได้รับการสนับสนุนโดยชุดซอฟต์แวร์เต็มรูปแบบของ NVIDIA ซึ่งช่วยให้นักพัฒนาและองค์กรต่างๆ สามารถสร้างและเร่งความเร็ว AI, HPC และแอปพลิเคชันอื่นๆ ได้ ซึ่งรวมถึง NVIDIA AI Enterprise ซึ่งเป็นเลเยอร์ซอฟต์แวร์ของแพลตฟอร์ม NVIDIA AI ซึ่งมีเฟรมเวิร์กกว่า 100 รายการ โมเดลที่ได้รับการฝึกอบรมล่วงหน้าและเครื่องมือการพัฒนาเพื่อเร่งความเร็ว AI และวิทยาศาสตร์ข้อมูลสำหรับการพัฒนาและการปรับใช้ AI ขององค์กรที่รองรับอย่างเต็มที่
MGX เข้ากันได้กับชั้นวางเซิร์ฟเวอร์ Open Compute Project และ Electronic Industries Alliance เพื่อการรวมเข้ากับศูนย์ข้อมูลขององค์กรและระบบคลาวด์อย่างรวดเร็ว
รับชมคำปราศรัยของ Jensen Huang ผู้ก่อตั้งและซีอีโอของ NVIDIA พูดคุยเกี่ยวกับข้อกําหนดเซิร์ฟเวอร์ MGX ได้ที่ COMPUTEX 2023