NVIDIA เปิดตัวไมโครเซอร์วิส Generative AI สำหรับนักพัฒนาเพื่อสร้างและปรับใช้ Generative AI Copilots ที่อยู่บนพื้นฐานของ NVIDIA CUDA GPU

  • ทางเลือกใหม่ของไมโครเซอร์วิส NVIDIA NIM ที่เร่งด้วย GPU และ Cloud Endpoints สำหรับโมเดล AI ที่ได้รับการฝึกล่วงหน้า ได้รับการปรับปรุงให้ทำงานบน GPU ที่เปิดใช้งาน CUDA หลายร้อยล้านหน่วยบนคลาวด์ ศูนย์ข้อมูล เวิร์กสเตชัน และพีซี
  • องค์กรต่าง ๆ สามารถใช้ไมโครเซอร์วิสเพื่อเร่งการประมวลผลข้อมูล, การปรับแต่ง LLM, การอนุมาน, Retrieval-Augmented Generation และ นโยบายจริยธรรมและความรับผิดชอบของการใช้ AI
  • นำมาใช้โดยระบบนิเวศ AI ในวงกว้าง รวมถึง Cadence ผู้ให้บริการแพลตฟอร์มแอปพลิเคชันชั้นนำ, CrowdStrike, SAP, ServiceNow และอื่นๆ อีกมากมาย

GTC— วันนี้ NVIDIA เปิดตัวไมโครเซอร์วิส Generative AI ระดับองค์กรจำนวนมาก ซึ่งธุรกิจต่าง ๆ สามารถใช้เพื่อสร้างและปรับใช้แอปพลิเคชันแบบกำหนดเองบนแพลตฟอร์มของตนเอง ในขณะที่ยังคงความเป็นเจ้าของและการควบคุมทรัพย์สินทางปัญญาของตนอย่างเต็มที่

สร้างอยู่บนแพลตฟอร์ม NVIDIA CUDA ตัวเลือกของไมโครเซอร์วิสบนคลาวด์ รวมถึง NVIDIA NIM ไมโครเซอร์วิสเพื่อการอนุมานที่ดีที่สุดสำหรับโมเดล AI ยอดนิยมมากกว่า 24 รายการจาก NVIDIA และระบบนิเวศของพันธมิตร นอกจากนี้คุณสามารถเข้าถึงชุดพัฒนาซอฟต์แวร์ ไลบรารี และเครื่องมือเร่งความเร็วของ NVIDIA ได้แล้ว NVIDIA CUDA-X™ ไมโครเซอร์วิสสำหรับการสร้างการดึงข้อมูล (RAG), นโยบายจริยธรรมและความรับผิดชอบของการใช้ AI, การประมวลผลข้อมูล, HPC และอื่น ๆ NVIDIA ยังประกาศไมโครเซอร์วิส NIM และ CUDA-X ด้านการดูแลสุขภาพ.

ไมโครเซอร์วิสที่คัดสรรมาอย่างดีจะเพิ่มพื้นที่ใหม่ให้กับแพลตฟอร์มการประมวลผลแบบฟูลสแตกของ NVIDIA พื้นที่เหล่านี้เชื่อมต่อระบบนิเวศ AI ของนักพัฒนาโมเดล ผู้ให้บริการแพลตฟอร์ม และองค์กรต่าง ๆ ด้วยเส้นทางที่เป็นมาตรฐานในการรันโมเดล AI แบบกำหนดเองที่ปรับให้เหมาะสมสำหรับฐานการติดตั้ง CUDA ของ NVIDIA ซึ่งมี GPU หลายร้อยล้านตัวบนคลาวด์ ศูนย์ข้อมูล เวิร์กสเตชัน และพีซี

หนึ่งในกลุ่มแรก ๆ ที่เข้าถึงไมโครเซอร์วิส Generative AI ใหม่ของ NVIDIA ที่มีอยู่ใน NVIDIA AI Enterprise 5.0 คือผู้ให้บริการแพลตฟอร์มแอปพลิเคชัน ข้อมูล และความปลอดภัยทางไซเบอร์ชั้นนำ ได้แก่ Adobe, Cadence, CrowdStrike, Getty Images, SAP, ServiceNow, และ Shutterstock

“แพลตฟอร์มองค์กรที่จัดตั้งขึ้นกำลังนั่งอยู่บนขุมทองของข้อมูลที่สามารถแปลงเป็น Generative AI copilots” Jensen Huang ผู้ก่อตั้งและ CEO ของ NVIDIA กล่าว “ไมโครเซอร์วิส AI แบบคอนเทนเนอร์ที่สร้างขึ้นด้วยระบบนิเวศของพันธมิตรของเรา ถือเป็นองค์ประกอบสำคัญสำหรับองค์กรในทุกอุตสาหกรรมที่จะกลายมาเป็นบริษัท AI”

ความเร็วในการปรับใช้ไมโครเซอร์วิสการอนุมานของ NIM จากสัปดาห์เป็นนาที

ไมโครเซอร์วิสของ NIM นำเสนอคอนเทนเนอร์ที่สร้างไว้ล่วงหน้าซึ่งขับเคลื่อนโดยซอฟต์แวร์อนุมานของ NVIDIA รวมถึง Triton Inference Server™ และ TensorRT™-LLM ซึ่งช่วยให้นักพัฒนาสามารถลดเวลาในการปรับใช้จากสัปดาห์เหลือเพียงไม่กี่นาที

พวกเขาจัดเตรียม API มาตรฐานอุตสาหกรรมสำหรับโดเมนต่าง ๆ เช่น ภาษา คำพูด และการค้นพบยา เพื่อให้นักพัฒนาสามารถสร้างแอปพลิเคชัน AI ได้อย่างรวดเร็วโดยใช้ข้อมูลที่เป็นกรรมสิทธิ์ของตนซึ่งโฮสต์ไว้อย่างปลอดภัยในโครงสร้างพื้นฐานของตนเอง แอปพลิเคชันเหล่านี้สามารถปรับขนาดได้ตามความต้องการ โดยให้ความยืดหยุ่นและประสิทธิภาพสำหรับการรัน Generative AI ในการผลิตบนแพลตฟอร์มการประมวลผลที่เร่งความเร็วของ NVIDIA

ไมโครเซอร์วิสของ NIM มอบคอนเทนเนอร์ AI ที่ใช้งานจริงที่รวดเร็วและมีประสิทธิภาพสูงสุดสำหรับการปรับใช้โมเดลจาก NVIDIA, A121, Adept, Cohere, Getty Images, และ Shutterstock รวมถึงโมเดลแบบเปิดจาก Google, Hugging Face, Meta, Microsoft, Mistral AI และ Stability AI

ServiceNow ประกาศในวันนี้ว่ากำลังใช้ NIM เพื่อพัฒนาและปรับใช้ copilots แบบเฉพาะทางใหม่และแอปพลิเคชัน Generative AI อื่นๆ ได้รวดเร็วและคุ้มค่ายิ่งขึ้น

ลูกค้าจะสามารถเข้าถึงไมโครเซอร์วิสของ NIM ได้จาก Amazon SageMaker, Google Kubernetes Engine และ Microsoft Azure และบูรณาการเข้ากับกรอบ AI ยอดนิยมเช่น Deepset, LangChain และ LlamaIndex.

ไมโครเซอร์วิส CUDA-X สำหรับ RAG, การประมวลผลข้อมูล, Guardrails, HPC

ไมโครเซอร์วิส CUDA-X มอบองค์ประกอบพื้นฐานแบบครบวงจรสำหรับการเตรียมข้อมูล การปรับแต่ง และการฝึกอบรมเพื่อเร่งการพัฒนา AI ในการผลิตทั่วทั้งอุตสาหกรรม

เพื่อเร่งการนำ AI ไปใช้ องค์กรอาจใช้ไมโครเซอร์วิส CUDA-X ซึ่งรวมถึง NVIDIA Riva ที่เป็น AI สำหรับคำพูดและการแปลที่ปรับแต่งได้, NVIDIA cuOpt™ เพื่อการเพิ่มประสิทธิภาพการกำหนดเส้นทางอีกด้วย, NVIDIA Earth-2 สำหรับการจำลองสภาพอากาศและสภาพอากาศที่มีความละเอียดสูง

NeMo Retriever™ ไมโครเซอร์วิสที่ช่วยให้นักพัฒนาเชื่อมโยงแอปพลิเคชัน AI ของตนเข้ากับข้อมูลทางธุรกิจ รวมถึงข้อความ รูปภาพ และการแสดงภาพ เช่น กราฟแท่ง แผนภาพเส้น และแผนภูมิวงกลม เพื่อสร้างการตอบสนองที่มีความแม่นยำสูงและเกี่ยวข้องกับบริบท ด้วยความสามารถของ RAG เหล่านี้ องค์กรต่าง ๆ สามารถนำเสนอข้อมูลเพิ่มเติมให้กับโปรแกรมควบคุม แชทบอท และเครื่องมือเพิ่มประสิทธิภาพการทำงานของ AI เพื่อยกระดับความแม่นยำและข้อมูลเชิงลึก

ไมโครเซอร์วิส NVIDIA NeMo™ ที่จะมาถึงในเร็ว ๆ นี้สามารถพัฒนาโมเดลแบบกำหนดเอง ซึ่งรวมถึง NVIDIA NeMo Curator สำหรับการสร้างชุดข้อมูลที่สะอาดสำหรับการฝึกอบรมและการเรียกค้น, NVIDIA NeMo Optimizer สำหรับการปรับแต่ง LLMs ด้วยข้อมูลเฉพาะด้าน, NVIDIA NeMo Evaluator สำหรับการวิเคราะห์ประสิทธิภาพของโมเดล AI ตลอดจน NVIDIA NeMo Guardrails สำหรับ LLM

ระบบนิเวศเพิ่มพลังให้กับแพลตฟอร์มองค์กรด้วยไมโครเซอร์วิส Generative AI

นอกเหนือจากผู้ให้บริการแอปพลิเคชันชั้นนำแล้ว ข้อมูล โครงสร้างพื้นฐาน และผู้ให้บริการแพลตฟอร์มการประมวลผลทั่วทั้งระบบนิเวศของ NVIDIA กำลังทำงานร่วมกับไมโครเซอร์วิสของ NVIDIA เพื่อนำ Generative AI มาสู่องค์กรต่าง ๆ

ผู้ให้บริการแพลตฟอร์มข้อมูลชั้นนำ ได้แก่ Box, Cloudera, Cohesity, Datastax, Dropbox และ NetApp กำลังทำงานร่วมกับไมโครเซอร์วิสของ NVIDIA เพื่อช่วยลูกค้าเพิ่มประสิทธิภาพไปป์ไลน์ RAG และรวมข้อมูลที่เป็นกรรมสิทธิ์ของตนเข้ากับแอปพลิเคชัน Generative AI, Snowflake ใช้ประโยชน์จาก NeMo Retriever เพื่อควบคุมข้อมูลองค์กรสำหรับการสร้างแอปพลิเคชัน AI

องค์กรต่าง ๆ สามารถใช้งานไมโครเซอร์วิสของ NVIDIA ที่รวมอยู่ใน NVIDIA AI Enterprise 5.0 ได้ทั่วทั้งโครงสร้างพื้นฐานที่ตนเลือก เช่น ระบบคลาวด์ชั้นนำ Amazon Web Services (AWS), Google Cloud, Azure และ Oracle Cloud Infrastructure

ไมโครเซอร์วิสของ NVIDIA ยังรองรับบน NVIDIA-Certified Systems™ มากกว่า 400 รายการ รวมถึงเซิร์ฟเวอร์และเวิร์กสเตชันจาก Cisco, Dell Technologies, Hewlett Packard Enterprise (HPE) , HP, Lenovo และ Supermicro วันนี้ HPE ประกาศความพร้อมของโซลูชันการประมวลผลระดับองค์กรของสำหรับ generative AI พร้อมการบูรณาการตามแผนของ NIM และโมเดล NVIDIA AI Foundation ลงในซอฟต์แวร์ AI ของ HPE

ไมโครเซอร์วิส NVIDIA AI Enterprise กำลังมาถึงแพลตฟอร์มซอฟต์แวร์โครงสร้างพื้นฐานรวมถึง VMware Private AI Foundation ด้วย NVIDIA, Red Hat OpenShift รองรับไมโครเซอร์วิสของ NVIDIA NIM เพื่อช่วยให้องค์กรต่าง ๆ ผสานรวมความสามารถด้าน Generative AI เข้ากับแอปพลิเคชันของตนได้ง่ายขึ้น พร้อมความสามารถที่ได้รับการปรับปรุงประสิทธิภาพด้านความปลอดภัย การปฏิบัติตามข้อกำหนด และการควบคุม Canonical กำลังเพิ่มการรองรับ Charmed Kubernetes สำหรับไมโครเซอร์วิสของ NVIDIA ผ่านทาง NVIDIA AI Enterprise

ระบบนิเวศของ NVIDIA ที่มีพันธมิตร AI และ MLOps หลายร้อยราย รวมถึง Abridge, Anyscale, Dataiku, DataRobot, Glean, H2O.ai, Securiti AI, Scale AI, OctoAI and Weights & Biases กำลังเพิ่มการรองรับไมโครเซอร์วิสของ NVIDIA ผ่านทาง NVIDIA AI Enterprise

Apache Lucene, Datastax, Faiss, Kinetica, Milvus, Redis, และ Weaviate เป็นหนึ่งในผู้ให้บริการค้นหาเวกเตอร์ที่ทำงานร่วมกับไมโครเซอร์วิส NVIDIA NeMo Retriever เพื่อขับเคลื่อนความสามารถ RAG ที่ตอบสนองสำหรับองค์กร

ความพร้อมใช้งาน

นักพัฒนาสามารถทดลองใช้ไมโครเซอร์วิสของ NVIDIA ได้ที่ ai.nvidia.com โดยไม่มีค่าใช้จ่าย องค์กรต่าง ๆ สามารถปรับใช้ไมโครเซอร์วิส NIM ระดับการผลิตด้วย NVIDIA AI Enterprise 5.0 ที่ทำงานบนระบบที่ได้รับการรับรองจาก NVIDIA และแพลตฟอร์มคลาวด์ชั้นนำ

สำหรับข้อมูลเพิ่มเติม โปรดดูคีย์โน้ตย้อนหลัง GTC ของ Huang และเยี่ยมชมบูธ NVIDIA ที่ GTC ซึ่งจัดขึ้นที่ San Jose Convention Center จนถึงวันที่ 21 มีนาคม