NVIDIA ทำสัญญาใช้เทคโนโลยี LPU จาก Groq พร้อมดึงทีมหลักร่วมศึก AI Inference
Nvidia และ Groq ออกมาชี้แจงชัดเจนว่าดีลที่เกิดขึ้นเป็นข้อตกลงให้สิทธิ์ใช้งานเทคโนโลยี (licensing) ไม่ใช่การเข้าซื้อกิจการมูลค่า 20,000 ล้านดอลลาร์ตามที่มีรายงานก่อนหน้า โดย Groq ยังดำเนินธุรกิจในฐานะบริษัทอิสระต่อไป
Groq ชี้แจงดีล หลังข่าวลือซื้อกิจการ 2 หมื่นล้านดอลลาร์
ก่อนหน้านี้ CNBC รายงานโดยอ้างแหล่งข่าวจากฝั่งนักลงทุนว่า Nvidia ตกลงเข้าซื้อ Groq ด้วยเงินสดมูลค่า 20,000 ล้านดอลลาร์ ซึ่งหากเป็นจริงจะกลายเป็นดีลใหญ่ที่สุดในประวัติศาสตร์ของ Nvidia แซงหน้าการซื้อ Mellanox มูลค่า 7,000 ล้านดอลลาร์เมื่อปี 2019
ทั้ง Nvidia และ Groq ออกแถลงยืนยันว่าข้อตกลงที่เกิดขึ้นเป็นการให้สิทธิ์ใช้งานเทคโนโลยี inference ของ Groq แบบไม่ผูกขาด (non-exclusive licensing) ไม่ใช่การซื้อหุ้นหรือซื้อกิจการทั้งบริษัท

รายละเอียดข้อตกลงระหว่าง Nvidia และ Groq
ข้อตกลงใหม่นี้เปิดทางให้ Nvidia สามารถนำเทคโนโลยี inference ของ Groq ไปผนวกเข้ากับผลิตภัณฑ์ของตนเอง เพื่อเร่งความเร็วการประมวลผลโมเดลภาษาและงาน AI ภาคปฏิบัติการ พร้อมลดต้นทุนต่อคำตอบลง
Groq ระบุว่าข้อตกลงเป็นแบบไม่ผูกขาด ทำให้บริษัทสามารถทำงานร่วมกับพาร์ตเนอร์รายอื่นในอุตสาหกรรมได้ต่อไป ขณะที่ Nvidia ก็ยังคงเดินหน้าพัฒนาแพลตฟอร์ม GPU และซอฟต์แวร์ของตัวเองควบคู่กัน
โครงสร้างองค์กร: ทีมหลักเข้าร่วม Nvidia แต่ Groq ยังอิสระ
ภายใต้ดีลนี้ Jonathan Ross ผู้ก่อตั้ง Groq, Sunny Madra ประธานบริษัท และทีมงานบางส่วนจะย้ายไปร่วมงานกับ Nvidia เพื่อช่วยพัฒนาและขยายเทคโนโลยีที่ได้รับการให้สิทธิ์ใช้งาน
Groq ยืนยันว่าจะยังดำเนินงานในฐานะบริษัทอิสระ โดยแต่งตั้ง Simon Edwards ขึ้นเป็นซีอีโอคนใหม่เพื่อดูแลทิศทางธุรกิจและพาร์ตเนอร์เชิงพาณิชย์ของบริษัทต่อไป
กลยุทธ์แข่งขันในตลาดชิป AI
Nvidia มองดีลนี้เป็นอีกหนึ่งหมากสำคัญในการเสริมความแข็งแกร่งด้าน AI inference ท่ามกลางการแข่งขันที่รุนแรงจากผู้ผลิตชิปและแพลตฟอร์มคลาวด์รายอื่น โดยเลือกใช้รูปแบบ “ลงทุนและจับมือเชิงเทคโนโลยี” มากกว่าการซื้อกิจการเต็มรูปแบบ
นอกจาก Groq แล้ว Nvidia ยังลงทุนหรือทำสัญญาระยะยาวกับผู้เล่นในระบบนิเวศ AI หลายราย เช่น Crusoe, Cohere และ CoreWeave เพื่อขยายโครงสร้างพื้นฐานและช่องทางการให้บริการ GPU ในระดับคลาวด์
GroqCloud ยังเดินหน้าธุรกิจคลาวด์ต่อเนื่อง
Groq ระบุชัดว่า GroqCloud บริการคลาวด์สำหรับรันโมเดล AI บนชิปของบริษัท จะยังคงให้บริการตามปกติไม่สะดุด ไม่ได้เป็นส่วนหนึ่งของดีลให้สิทธิ์เทคโนโลยีกับ Nvidia
การที่ Groq ยังคงถือครองและเดินหน้าธุรกิจคลาวด์เอง สะท้อนว่าบริษัทต้องการรักษาบทบาทผู้ให้บริการโซลูชันครบวงจร ทั้งในฐานะผู้ออกแบบชิปและผู้ให้บริการโครงสร้างพื้นฐานสำหรับนักพัฒนาและลูกค้าองค์กร
Groq สำคัญอย่างไร ทำไม Nvidia ถึงต้องการ
Groq เป็นบริษัทที่ก่อตั้งโดยทีมงานส่วนหนึ่งที่พัฒนา Google TPU ในยุคแรก ๆ โดยพวกเขาได้ลาออกมา พัฒนาหน่วยประมวผลที่เน้นการ Inference หรือการอนุมานโมเดล LLM เป็นหลักโดยเฉพาะ ทำให้รัน LLM ได้เร็วมาก ค่าหน่วงต่ำ และประหยัดพลังงานกว่า GPU ทั่วไปอย่างชัดเจน ซึ่งเป็นจุดที่ Nvidia ต้องการเสริมในยุทธศาสตร์ AI ของตัวเอง
จุดเด่นเทคโนโลยีของ Groq
- Groq พัฒนา LPU (Language Processing Unit) เป็นชิปที่โฟกัสแค่การรันโมเดลภาษา/LLM ไม่ใช่ชิปเอนกประสงค์แบบ GPU ทำให้ปรับแต่งสถาปัตยกรรมเพื่อ inference เต็มที่
- ดีไซน์เน้นใช้ SRAM บนชิปขนาดใหญ่เป็นตัวเก็บ weight โดยตรง ลดดีเลย์การดึงข้อมูลจาก DRAM/HBM ทำให้หน่วยคำนวณไม่ต้องรอข้อมูล และดัน throughput ได้สูงมาก
ความเร็วและประสิทธิภาพเหนือ GPU
- ผลทดสอบจาก ArtificialAnalysis.ai ระบุว่าแพลตฟอร์มของ Groq สามารถปล่อย token ได้ราว 200–240 token ต่อวินาทีในการรัน Llama 2 70B ซึ่งเร็วกว่าผู้ให้บริการรายอื่นแบบเห็นได้ชัด เหมาะกับงานเรียลไทม์เช่นแชตหรือโค้ดแอสซิสต์
- เอกสารด้านพลังงานของ Groq ระบุว่า LPU มีประสิทธิภาพด้านพลังงานดีกว่า GPU ได้ถึงระดับ “หลายเท่า” โดยบางกรณีพูดถึงระดับ 10 เท่าด้าน energy efficiency ซึ่งช่วยลดค่าไฟและค่าโฮสติ้งของบริการ GenAI ขนาดใหญ่
ตอบโจทย์ปัญหาใหญ่ของตลาด AI
- ตอนนี้ต้นทุนหลักของการให้บริการ AI ไม่ใช่แค่ “ค่าฝึก” แต่คือ “ค่าของการคำตอบ” เมื่อจำนวนผู้ใช้โตเป็นระดับหลายล้านคน สถาปัตยกรรมอย่าง LPU ที่เร็วและกินไฟน้อยจึงตอบโจทย์ผู้ให้บริการคลาวด์และเอนเตอร์ไพรส์โดยตรง
- LPU ของ Groq ถูกออกแบบมาให้ latency ต่ำมาก (time-to-first-token เร็ว) พร้อม throughput สูง จึงเปิดโอกาสเคสใช้งานใหม่ เช่น ระบบตอบโต้แบบเรียลไทม์หรือบริการที่ต้องการความเสถียรด้านเวลาอย่างเข้มงวด
ทำไม Nvidia ถึง “ต้องการ” Groq
ฝั่ง Nvidia แข็งแรงมากในตลาดการฝึกโมเดล ด้วย GPU และ H100/GB200 ที่ทรงพลัง แต่ในสงครามรอบถัดไป “ตลาด inference” มีแนวโน้มโตเร็ว และมีผู้ท้าชิงอย่างด้วยชิป AI เฉพาะทางมากขึ้นเรื่อย ล่าสุดชิป TPU จาก Google ก็ได้แสดงให้เห็นถึงศักยภาพในการทำงานออกมาแล้วผ่านทาง Gemini 3 และแอปพลิเคชัน AI ต่าง ๆ รวมไปถึงตอนนี้ก็กำลังจะมีชิปรุ่นใหม่ ๆ จากบริษัทคลาวด์เองไม่ว่าจะเป็น Microsoft, Amazon, Meta นั่นทำให้ Nvidia ต้องการเทคโนโลยีแบบ Groq มาเติมช่องว่างนี้
การดึงเทคโนโลยี LPU และทีมวิศวกรของ Groq เข้ามา (ผ่านดีลให้สิทธิ์และการรับทีมงานเข้าร่วม) ช่วยให้ Nvidia สามารถ ผนวกแนวคิดสถาปัตยกรรม SRAM‑centric/low-latency เข้าไปใน “AI Factory” และ data center platform ของ Nvidia ได้ ทำให้สามารถเสนอสินค้า AI inference ที่ต้นทุนต่อคำตอบต่ำขึ้น เพื่อกันไม่ให้ลูกค้ารายใหญ่ไหลไปหาโซลูชันทางเลือกอย่าง Groq หรือผู้เล่นอื่น
ยุทธศาสตร์ระยะยาวของ Nvidia
Groq เป็นทั้งคู่แข่งเชิงสถาปัตยกรรม และเป็นตัวเร่งให้ตลาด inference ขยาย การที่ Nvidia ดึงทั้งทีมงานและเทคโนโ,ยีมาอยู่ใน ecosystem ของตัวเอง (ในรูปแบบ licensing + acqui-hire) ช่วยลดความเสี่ยงที่จะกลายเป็นคู่แข่งตรงกับแพลตฟอร์ม Rubin/GB200 ในอนาคต และยังไม่โดนข้อหาผูกขาดทางธุรกิจอีกด้วย เพราะไม่ได้เข้าซื้อโดยตรง
สำหรับ Nvidia การดีลกับ Groq จึงไม่ใช่แค่เรื่องเพิ่มความเร็ว แต่คือการล็อกเทคโนโลยีสำคัญด้าน inference ที่จะมาขยายความสามารถของธุรกิจหลัก รวมถึวป้องกันและรักษาฐานลูกค้า เพื่อขยายข้อได้เปรียบเชิงแพลตฟอร์มของ CUDA ออกไปสู้ศึกในสนามใหม่อย่าง AI Inference ที่จะมีการเติบโตอย่างมากในอนาคต
ข้อมูล: Groq