แพลตฟอร์ม NVIDIA Blackwell มาถึงแล้วเพื่อขับเคลื่อนยุคใหม่ของการประมวลผล

  • Blackwell GPU, NVLink และเทคโนโลยีใหม่ที่มีความยืดหยุ่นเปิดใช้งานโมเดล AI ขนาดล้านล้านพารามิเตอร์
  • ใหม่ Tensor Cores และ TensorRT- LLM Compiler ลดต้นทุนการดำเนินงานและพลังงานของการอนุมาน LLM ได้ถึง 25 เท่า
  • ตัวเร่งความเร็วใหม่ทำให้เกิดความก้าวหน้าในการประมวลผลข้อมูล การจำลองทางวิศวกรรม การออกแบบอัตโนมัติทางอิเล็กทรอนิกส์ การออกแบบยาโดยใช้คอมพิวเตอร์ และควอนตัมคอมพิวเตอร์
  • การนำไปใช้อย่างแพร่หลายโดยผู้ให้บริการคลาวด์รายใหญ่ ผู้ผลิตเซิร์ฟเวอร์ และบริษัท AI ชั้นนำทุกราย

GTC 2024 —ขับเคลื่อนยุคใหม่ของการประมวลผล NVIDIA ประกาศในวันนี้ว่าแพลตฟอร์ม NVIDIA Blackwell มาถึงแล้ว — ช่วยให้องค์กรทุกแห่งสามารถสร้างและรัน AI ที่สร้างแบบเรียลไทม์บนโมเดลภาษาขนาดใหญ่ล้านล้านพารามิเตอร์ โดยมีต้นทุนและการใช้พลังงานน้อยกว่าถึง 25 เท่า เมื่อเทียบกับรุ่นก่อนหน้า

สถาปัตยกรรม Blackwell GPU มี 6 เทคโนโลยีที่มีการเปลี่ยนแปลงสำหรับการประมวลผลแบบเร่งความเร็ว ซึ่งจะช่วยปลดล็อกความก้าวหน้าในการประมวลผลข้อมูล การจำลองทางวิศวกรรม การออกแบบทางอิเล็กทรอนิกส์อัตโนมัติ การออกแบบยาโดยใช้คอมพิวเตอร์ ควอนตัมคอมพิวเตอร์ และ Generative AI ทั้งหมดนี้ถือเป็นโอกาสในอุตสาหกรรมที่เกิดขึ้นใหม่สำหรับ NVIDIA

“เป็นเวลาสามทศวรรษแล้วที่เราได้ติดตามการประมวลผลแบบเร่งความเร็ว โดยมีเป้าหมายเพื่อทำให้เกิดความก้าวหน้าในการเปลี่ยนแปลง เช่น การเรียนรู้เชิงลึกและ AI” Jensen Huang ผู้ก่อตั้งและ CEO ของ NVIDIA กล่าว “Generative AI เป็นเทคโนโลยีที่กำหนดยุคสมัยของเรา แบล็กเวลล์เป็นเครื่องยนต์ที่ขับเคลื่อนการปฏิวัติอุตสาหกรรมครั้งใหม่นี้ การทำงานร่วมกับบริษัทที่มีพลวัตมากที่สุดในโลก เราจะตระหนักถึงคำมั่นสัญญาของ AI สำหรับทุกอุตสาหกรรม”

ในบรรดาหลายองค์กรที่คาดว่าจะนำ Blackwell มาใช้ ได้แก่ Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla และ xAI

Sundar Pichai ซีอีโอของ Alphabet และ Google กล่าวว่า: “การปรับขนาดบริการต่าง ๆ เช่น Search และ Gmail ให้กับผู้ใช้นับพันล้านคน ได้สอนเรามากมายเกี่ยวกับการจัดการโครงสร้างพื้นฐานการประมวลผล เมื่อเราเข้าสู่การเปลี่ยนแปลงแพลตฟอร์ม AI เรายังคงลงทุนเชิงลึกในโครงสร้างพื้นฐานสำหรับผลิตภัณฑ์และบริการของเราเอง และสำหรับลูกค้าระบบคลาวด์ของเรา เราโชคดีที่ได้เป็นพันธมิตรที่ยาวนานกับ NVIDIA และหวังว่าจะได้นำความสามารถที่ก้าวล้ำของ Blackwell GPU มาสู่ลูกค้าคลาวด์และทีมงานของเราทั่วทั้ง Google รวมถึง Google DeepMind เพื่อเร่งการค้นพบในอนาคต”

Andy Jassy ประธานและซีอีโอของ Amazon: “การทำงานร่วมกันอย่างลึกซึ้งกับ NVIDIA ย้อนกลับไปมากกว่า 13 ปี เมื่อเราเปิดตัวอินสแตนซ์คลาวด์ GPU แรกของโลกบน AWS วันนี้เรานำเสนอโซลูชัน GPU ที่หลากหลายที่สุดที่มีอยู่ในระบบคลาวด์ ซึ่งสนับสนุนปริมาณงานที่มีการเร่งความเร็วด้วยเทคโนโลยีที่ทันสมัยที่สุดในโลก นั่นเป็นเหตุผลว่าทำไม NVIDIA Blackwell GPU ใหม่จึงทำงานได้ดีบน AWS และเหตุผลที่ NVIDIA เลือก AWS เพื่อร่วมพัฒนา Project Ceiba โดยรวม Grace Blackwell Superchips รุ่นต่อไปของ NVIDIA เข้ากับการจำลองเสมือนขั้นสูงของ AWS Nitro System และเครือข่าย Elastic Fabric Adapter ที่รวดเร็วเป็นพิเศษ สำหรับการวิจัยและพัฒนา AI ของ NVIDIA ด้วยความพยายามร่วมกันระหว่างวิศวกร AWS และ NVIDIA เรากำลังสร้างสรรค์นวัตกรรมร่วมกันอย่างต่อเนื่องเพื่อทำให้ AWS เป็นสถานที่ที่ดีที่สุดสำหรับทุกคนที่ใช้งาน NVIDIA GPU ในระบบคลาวด์”

Michael Dell ผู้ก่อตั้งและซีอีโอของ Dell Technologies: “Generative AI มีความสำคัญอย่างยิ่งต่อการสร้างระบบที่ชาญฉลาดยิ่งขึ้น เชื่อถือได้มากขึ้น และมีประสิทธิภาพมากขึ้น Dell Technologies และ NVIDIA กำลังทำงานร่วมกันเพื่อกำหนดอนาคตของเทคโนโลยี ด้วยการเปิดตัว Blackwell เราจะยังคงส่งมอบผลิตภัณฑ์และบริการแบบเร่งความเร็วแห่งยุคถัดไปให้แก่ลูกค้าของเราต่อไป โดยมอบเครื่องมือที่พวกเขาต้องการเพื่อขับเคลื่อนนวัตกรรมในอุตสาหกรรมต่าง ๆ”

Demis Hassabis ผู้ร่วมก่อตั้งและซีอีโอของ Google DeepMind: “ศักยภาพในการเปลี่ยนแปลงของ AI นั้นน่าทึ่งมาก และมันจะช่วยให้เราแก้ไขปัญหาทางวิทยาศาสตร์ที่สำคัญที่สุดบางประการของโลกได้ ความสามารถทางเทคโนโลยีที่ก้าวหน้าของ Blackwell จะมอบการประมวลผลที่สำคัญที่จำเป็นเพื่อช่วยให้ผู้ที่มีความคิดที่ฉลาดที่สุดในโลกค้นพบการค้นพบทางวิทยาศาสตร์ใหม่ๆ”

Mark Zuckerberg ผู้ก่อตั้งและซีอีโอของ Meta: “AI ขับเคลื่อนทุกสิ่งตั้งแต่โมเดลภาษาขนาดใหญ่ไปจนถึงคำแนะนำเนื้อหา โฆษณา และระบบความปลอดภัยของเรา และจะมีความสำคัญมากขึ้นในอนาคตเท่านั้น เรารอคอยที่จะใช้ Blackwell ของ NVIDIA เพื่อช่วยฝึกอบรมโมเดล Llama โอเพ่นซอร์สของเรา และสร้าง Meta AI และผลิตภัณฑ์เพื่อผู้บริโภครุ่นต่อไป”

Satya Nadella ประธานกรรมการบริหารและซีอีโอของ Microsoft: “เรามุ่งมั่นที่จะนำเสนอโครงสร้างพื้นฐานที่ทันสมัยที่สุดแก่ลูกค้าของเราเพื่อขับเคลื่อนปริมาณงาน AI ของพวกเขา ด้วยการนำโปรเซสเซอร์ GB200 Grace Blackwell มาสู่ศูนย์ข้อมูลของเราทั่วโลก เรากำลังสร้างประวัติศาสตร์อันยาวนานในการเพิ่มประสิทธิภาพ NVIDIA GPU สำหรับระบบคลาวด์ของเรา ในขณะที่เราให้คำมั่นสัญญาเรื่อง AI ที่แท้จริงสำหรับองค์กรทุกแห่ง”

Sam Altman ซีอีโอของ OpenAI: “Blackwell นำเสนอประสิทธิภาพแบบก้าวกระโดด และจะเร่งความสามารถของเราในการส่งมอบโมเดลระดับแนวหน้า เรารู้สึกตื่นเต้นที่จะทำงานร่วมกับ NVIDIA ต่อไปเพื่อปรับปรุงการประมวลผล AI”

Larry Ellison ประธานและ CTO ของ Oracle: “การทำงานร่วมกันอย่างใกล้ชิดของ Oracle กับ NVIDIA จะช่วยให้เกิดการพัฒนาเชิงคุณภาพและเชิงปริมาณใน AI, การเรียนรู้ของเครื่องจักร และการวิเคราะห์ข้อมูล เพื่อให้ลูกค้าค้นพบข้อมูลเชิงลึกที่นำไปใช้ได้จริงมากขึ้น จำเป็นต้องมีกลไกที่ทรงพลังยิ่งขึ้นอย่าง Blackwell ซึ่งสร้างขึ้นโดยมีจุดประสงค์เพื่อการเร่งความเร็วในการประมวลผลและ Generative AI”

Elon Musk ซีอีโอของ Tesla และ xAI: “ปัจจุบันไม่มีอะไรดีไปกว่าฮาร์ดแวร์ NVIDIA สำหรับ AI”

ตั้งชื่อเพื่อเป็นเกียรติแก่ David Harold Blackwell นักคณิตศาสตร์ที่เชี่ยวชาญด้านทฤษฎีเกมและสถิติ และเป็นนักวิชาการผิวดำคนแรกที่ได้รับการแต่งตั้งให้เข้าสู่ National Academy of Sciences สถาปัตยกรรมใหม่นี้สืบทอดต่อจากสถาปัตยกรรม NVIDIA Hopper™ ที่เปิดตัวเมื่อสองปีที่แล้ว

นวัตกรรมของ Blackwell เพื่อขับเคลื่อนคอมพิวเตอร์ที่เร่งความเร็วและ Generative AI

เทคโนโลยีปฏิวัติทั้งหกของ Blackwell ซึ่งร่วมกันเปิดใช้งานการฝึกอบรม AI และการอนุมาน LLM แบบเรียลไทม์สำหรับโมเดลที่ปรับขนาดได้ถึง 10 ล้านล้านพารามิเตอร์ ได้แก่:

  • ชิปที่ทรงพลังที่สุดในโลก — อัดแน่นด้วยทรานซิสเตอร์ 208 พันล้านตัว GPU สถาปัตยกรรม Blackwell ผลิตขึ้นโดยใช้กระบวนการ 4NP TSMC ที่ได้รับการปรับแต่งมาโดยเฉพาะ พร้อม GPU die สองตัวเชื่อมต่อกันเป็นหนึ่งเดียวด้วยลิงก์ Chip-to-Chip ที่มีความเร็ว 10 TB/s เป็น GPU แบบครบวงจรหนึ่งเดียว
  • Transformer Engine เจนเนอเรชั่นที่สอง — ขับเคลื่อนด้วยการสนับสนุนการปรับขนาดไมโครเทนเซอร์ใหม่และอัลกอริธึมการจัดการช่วงไดนามิกขั้นสูงของ NVIDIA ที่รวมอยู่ในเฟรมเวิร์ค NVIDIA TensorRT™-LLM และ NeMo Megatron Blackwell จะรองรับขนาดการคำนวณและโมเดลเป็นสองเท่าด้วย 4-bit floating point AI ใหม่ ที่มีความสามารถในการอนุมานได้เร็วขึ้น
  • NVLink รุ่นที่ห้า — เพื่อเร่งประสิทธิภาพสำหรับโมเดล AI หลายล้านพารามิเตอร์และโมเดล AI แบบ Mixture-of-Experts, การปรับปรุงล่าสุดของ NVIDIA NVLink® มอบทรูพุตแบบสองทิศทางที่ให้อัตราข้อมูล 1.8TB/s ต่อ GPU ทำให้มั่นใจได้ถึงการสื่อสารความเร็วสูงที่ราบรื่นระหว่าง GPU สูงสุด 576 ตัว สำหรับ LLM ที่ซับซ้อนที่สุด
  • RAS Engine — GPU ที่ขับเคลื่อนโดยสถาปัตยกรรม Blackwell มีเอ็นจิ้นเฉพาะเพื่อความน่าเชื่อถือ ความพร้อมใช้งาน และความสามารถในการให้บริการ นอกจากนี้ สถาปัตยกรรม Blackwell ยังเพิ่มความสามารถในระดับชิปเพื่อใช้การบำรุงรักษาเชิงป้องกันโดยใช้ AI เพื่อเรียกใช้การวินิจฉัยและคาดการณ์ปัญหาความน่าเชื่อถือ สิ่งนี้จะเพิ่มเวลาทำงานของระบบให้สูงสุดและปรับปรุงความยืดหยุ่นสำหรับการปรับใช้ AI ขนาดใหญ่เพื่อให้ทำงานอย่างต่อเนื่องเป็นเวลาหลายสัปดาห์หรือหลายเดือนในแต่ละครั้ง และเพื่อลดต้นทุนการดำเนินงาน
  • AI ที่ปลอดภัย — ความสามารถในการประมวลผลที่เป็นความลับขั้นสูงปกป้องโมเดล AI และข้อมูลลูกค้าโดยไม่กระทบต่อประสิทธิภาพ พร้อมรองรับ native interface encryption protocols ใหม่ ซึ่งมีความสำคัญสำหรับอุตสาหกรรมที่ให้ความสำคัญกับความเป็นส่วนตัว เช่น การดูแลสุขภาพและบริการทางการเงิน
  • Decompression Engine — เอ็นจิ้นคลายการบีบอัดโดยเฉพาะรองรับรูปแบบล่าสุด เร่งการสืบค้นฐานข้อมูลเพื่อมอบประสิทธิภาพสูงสุดในการวิเคราะห์ข้อมูลและวิทยาศาสตร์ข้อมูล ในอีกไม่กี่ปีข้างหน้า การประมวลผลข้อมูลที่บริษัทต่าง ๆ ใช้จ่ายหลายหมื่นล้านดอลลาร์ต่อปี จะถูกเร่งด้วย GPU มากขึ้น

ซูเปอร์ชิปขนาดใหญ่

NVIDIA GB200 Grace Blackwell Superchip เชื่อมต่อ NVIDIA B200 Tensor Core GPU สองตัวเข้ากับ NVIDIA Grace CPU ผ่านการเชื่อมต่อ NVLink chip-to-chip ที่ใช้พลังงานต่ำเป็นพิเศษ ให้อัตราข้อมูลที่ 900GB/s

เพื่อประสิทธิภาพ AI สูงสุด ระบบที่ขับเคลื่อนด้วย GB200 สามารถเชื่อมต่อกับแพลตฟอร์มอีเธอร์เน็ต NVIDIA Quantum-X800 InfiniBand และ Spectrum™-X800 ที่ได้รับการประกาศในวันนี้เช่นกัน ซึ่งมอบเครือข่ายขั้นสูงที่ความเร็วสูงถึง 800Gb/s

GB200 เป็นองค์ประกอบสำคัญของ NVIDIA GB200 NVL72 ซึ่งเป็นระบบแร็คขนาดหลายโหนด ระบายความร้อนด้วยของเหลวสำหรับเวิร์กโหลดที่เน้นการประมวลผลมากที่สุด ระบบนี้ใช้ 36 Grace Blackwell Superchips ซึ่งรวมถึง 72 Blackwell GPUs และ 36 Grace CPU ที่เชื่อมต่อถึงกันโดย NVLink รุ่นที่ห้า นอกจากนี้ GB200 NVL72 ยังมีหน่วยประมวลผลข้อมูล NVIDIA BlueField®-3 เพื่อเปิดใช้งานการเร่งความเร็วเครือข่ายคลาวด์, พื้นที่จัดเก็บข้อมูลที่ปรับขนาดได้, การรักษาความปลอดภัยแบบ Zero Trust และประมวลผลด้วย GPU ที่มีความยืดหยุ่นในคลาวด์ AI ระดับไฮเปอร์สเกล GB200 NVL72 ให้ประสิทธิภาพเพิ่มขึ้นสูงสุด 30 เท่า เมื่อเทียบกับ NVIDIA H100 Tensor Core GPU ในจำนวนที่เท่ากันสำหรับเวิร์คโหลดการอนุมาน LLM และลดต้นทุนและการใช้พลังงานได้สูงสุดถึง 25 เท่า

แพลตฟอร์มดังกล่าวทำหน้าที่เป็น GPU ตัวเดียวพร้อมประสิทธิภาพ AI 1.4 exaflops และหน่วยความจำที่รวดเร็ว 30TB และเป็นส่วนประกอบสำคัญของ DGX SuperPOD ใหม่ล่าสุด

NVIDIA นำเสนอ HGX B200 ซึ่งเป็นบอร์ดเซิร์ฟเวอร์ที่เชื่อมโยง B200 GPU แปดตัวผ่าน NVLink เพื่อรองรับแพลตฟอร์ม Generative AI ที่ใช้ x86 HGX B200 รองรับความเร็วเครือข่ายสูงสุด 400Gb/s ผ่านแพลตฟอร์มเครือข่าย NVIDIA Quantum-2 InfiniBand และ Spectrum-X Ethernet

เครือข่ายทั่วโลกของพันธมิตร Blackwell

ผลิตภัณฑ์ที่ใช้ Blackwell จะวางจำหน่ายจากพันธมิตรตั้งแต่ปลายปีนี้

AWS, Google Cloud, Microsoft Azure และ Oracle Cloud Infrastructure จะเป็นหนึ่งในผู้ให้บริการระบบคลาวด์รายแรกที่นำเสนออินสแตนซ์ที่ขับเคลื่อนโดย Blackwell เช่นเดียวกับกลุ่มบริษัทพันธมิตรของ NVIDIA Cloud เช่น Applied Digital, CoreWeave, Crusoe, IBM Cloud และ Lambda นอกจากนี้ Sovereign AI Cloud จะให้บริการคลาวด์และโครงสร้างพื้นฐานบน Blackwell ซึ่งรวมถึง Indosat Ooredoo Hutchinson, Nebius, Nexgen Cloud, Oracle EU Sovereign Cloud, Oracle US, UK และ Australian Government Clouds, Scaleway, Singtel, Taiga Cloud ของ Northern Data Group Shakti Cloud ของ Yotta Data Services และ YTL Power International

GB200 จะพร้อมใช้งานบน NVIDIA DGX™ Cloud ซึ่งเป็นแพลตฟอร์ม AI ที่ออกแบบร่วมกับผู้ให้บริการคลาวด์ชั้นนำที่ให้นักพัฒนาระดับองค์กรเข้าถึงโครงสร้างพื้นฐานและซอฟต์แวร์ที่จำเป็นในการสร้างและปรับใช้โมเดล AI ขั้นสูง AWS, Google Cloud และ Oracle Cloud Infrastructure วางแผนที่จะโฮสต์อินสแตนซ์ใหม่ที่ใช้ NVIDIA Grace Blackwell ในปลายปีนี้

Cisco, Dell, Hewlett Packard Enterprise, Lenovo และ Supermicro คาดว่าจะส่งมอบเซิร์ฟเวอร์ที่หลากหลายโดยใช้ผลิตภัณฑ์ของ Blackwell เช่นเดียวกับ Aivres, ASRock Rack, ASUS, Eviden, Foxconn, GIGABYTE, Inventec, Pegatron, QCT, Wistron, Wiwynn และ ZT Systems

นอกจากนี้ เครือข่ายผู้ผลิตซอฟต์แวร์ที่กำลังเติบโต รวมถึง Ansys, Cadence และ Synopsys ซึ่งเป็นผู้นำระดับโลกในด้านการจำลองทางวิศวกรรม จะใช้โปรเซสเซอร์ที่เป็นพื้นฐาน Blackwell เพื่อเร่งความเร็วซอฟต์แวร์สำหรับการออกแบบและจำลองระบบและชิ้นส่วนไฟฟ้า เครื่องกล และการผลิต ลูกค้าของพวกเขาสามารถใช้ generative AI และการประมวลผลแบบเร่งความเร็วเพื่อนำผลิตภัณฑ์ออกสู่ตลาดได้เร็วขึ้น ด้วยต้นทุนที่ลดลง และด้วยประสิทธิภาพการใช้พลังงานที่สูงขึ้น

การสนับสนุนด้านซอฟต์แวร์ของ NVIDIA

กลุ่มผลิตภัณฑ์ Blackwell ได้รับการสนับสนุนโดย NVIDIA AI Enterprise ซึ่งเป็นระบบปฏิบัติการแบบ end-to-end สำหรับ AI ระดับการผลิต NVIDIA AI Enterprise ประกอบด้วยไมโครเซอร์วิสการอนุมานของ NVIDIA NIM™ ซึ่งประกาศในวันนี้เช่นกัน เช่นเดียวกับเฟรมเวิร์ก AI ไลบรารี และเครื่องมือที่องค์กรต่าง ๆ สามารถปรับใช้บนคลาวด์ ศูนย์ข้อมูล และเวิร์กสเตชันที่เร่งด้วย NVIDIA

หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับแพลตฟอร์ม NVIDIA Blackwell โปรดชมคีย์โน้ตของ GTC และลงทะเบียนเพื่อเข้าร่วมเซสชั่นจาก NVIDIA และผู้นำในอุตสาหกรรมที่ GTC ซึ่งจะดำเนินไปจนถึงวันที่ 21 มีนาคม

Share via
Copy link