ไมโครซอฟท์เปิดตัว BitNet b1.58 2B4T: LLM แบบ 1-Bit ทำงานได้บนซีพียูทั่วไปและใช้แรมเพียง 400MB

ไมโครซอฟท์ รีเสิร์ช เปิดตัว BitNet b1.58 2B4T โมเดลภาษาขนาดใหญ่ (Large Language Model: LLM) แบบ 1-Bit ตัวแรกที่ได้รับการฝึกฝนจากศูนย์และมีขนาดถึง 2 พันล้านพารามิเตอร์ โดยสามารถทำงานได้บนซีพียูทั่วไป เช่น ชิป Apple M2 และใช้หน่วยความจำเพียง 400MB เท่านั้น ซึ่งถือเป็นก้าวสำคัญในการทำให้ AI เข้าถึงได้ง่ายขึ้นบนอุปกรณ์ที่มีทรัพยากรจำกัด

BitNet b1.58 2B4T: นวัตกรรม LLM ที่ปฏิวัติวงการ
BitNet b1.58 2B4T ถูกพัฒนาขึ้นโดยใช้เทคนิค ternary quantization ซึ่งทำให้แต่ละพารามิเตอร์ (น้ำหนัก) ของโมเดลมีค่าเพียง -1, 0 หรือ +1 เท่านั้น หรือเฉลี่ยเพียง 1.58 บิตต่อพารามิเตอร์ แตกต่างจากโมเดลทั่วไปที่ใช้รูปแบบ 16 หรือ 32 บิต ทำให้โมเดลนี้ประหยัดหน่วยความจำและพลังงานอย่างมาก โดยใช้หน่วยความจำเพียง 400MB ซึ่งน้อยกว่าโมเดลขนาดใกล้เคียง เช่น Google Gemma 3 1B ที่ใช้ถึง 1.4GB ถึง 3 เท่า และประหยัดพลังงานได้ถึง 85-96% เมื่อเทียบกับโมเดลแบบเต็มความแม่นยำ (full-precision)

โมเดลนี้ได้รับการฝึกฝนด้วยชุดข้อมูลขนาดมหาศาลถึง 4 ล้านล้านโทเค็น (เทียบเท่าหนังสือ 33 ล้านเล่ม) และผ่านการประเมินในงานต่างๆ เช่น การเข้าใจภาษา การคำนวณทางคณิตศาสตร์ การเขียนโค้ด และการสนทนา ผลลัพธ์แสดงให้เห็นว่า BitNet b1.58 2B4T มีประสิทธิภาพเทียบเท่าหรือเหนือกว่าโมเดลชั้นนำขนาดใกล้เคียง เช่น Meta LLaMA 3.2 1B และ Alibaba Qwen 2.5 1.5B ในบางการทดสอบ เช่น การแก้โจทย์คณิตศาสตร์ระดับประถม (GSM8K) และการใช้เหตุผลด้านสามัญสำนึก (PIQA)

ทำงานบนซีพียูทั่วไปด้วย bitnet.cpp
จุดเด่นของ BitNet b1.58 2B4T คือความสามารถในการทำงานบนซีพียูทั่วไปโดยไม่ต้องพึ่งพา GPU หรือ NPU ซึ่งมักจำเป็นสำหรับโมเดล AI ขนาดใหญ่ โดยไมโครซอฟท์ได้พัฒนา bitnet.cpp เฟรมเวิร์กพิเศษที่ออกแบบมาเพื่อรองรับการประมวลผลโมเดล 1.58-Bit อย่างมีประสิทธิภาพ ซึ่งช่วยให้การประมวลผลรวดเร็วกว่าโมเดลทั่วไปถึง 2 เท่าในบางกรณี และลดเวลาแฝง (latency) ลงอย่างมาก

อย่างไรก็ตาม โมเดลนี้ต้องใช้ bitnet.cpp เพื่อให้ได้ประสิทธิภาพสูงสุด และไม่สามารถใช้งานได้อย่างเต็มประสิทธิภาพบนไลบรารีมาตรฐาน เช่น Hugging Face Transformers โดยในอนาคต ไมโครซอฟท์วางแผนเพิ่มการรองรับ NPU และ GPU รวมถึงขยายความสามารถด้านภาษาและบริบทที่ยาวขึ้น

เปิดให้ใช้งานฟรีผ่าน Hugging Face
ไมโครซอฟท์ได้ปล่อย BitNet b1.58 2B4T เป็นโอเพ่นซอร์สภายใต้ใบอนุญาต MIT โดยสามารถดาวน์โหลดน้ำหนักโมเดลได้จาก Hugging Face ใน 3 รูปแบบ ได้แก่ รูปแบบ 1.58-Bit สำหรับการใช้งานทั่วไป, รูปแบบ BF16 สำหรับการฝึกฝนต่อ, และรูปแบบ GGUF สำหรับ bitnet.cpp นอกจากนี้ ยังมีโค้ดและเดโมให้ทดลองใช้งานผ่าน GitHub และเว็บไซต์ตัวอย่างของไมโครซอฟท์

อนาคตของ AI ที่ประหยัดและเข้าถึงได้
BitNet b1.58 2B4T ถือเป็นก้าวสำคัญในการลดข้อจำกัดด้านทรัพยากรของ LLM ทำให้ AI สามารถทำงานได้บนอุปกรณ์ที่มีข้อจำกัด เช่น สมาร์ทโฟน หรืออุปกรณ์ edge computing ซึ่งอาจลดการพึ่งพาศูนย์ข้อมูลขนาดใหญ่และช่วยลดผลกระทบต่อสิ่งแวดล้อมจากการใช้พลังงานของ AI

อย่างไรก็ตาม ไมโครซอฟท์เตือนว่าโมเดลนี้อาจมีความแม่นยำต่ำกว่าโมเดลขนาดใหญ่ และมีข้อจำกัดในการรองรับภาษาที่ไม่ใช่ภาษาอังกฤษ รวมถึงอาจมีความเสี่ยงในการสร้างเนื้อหาที่ไม่ถูกต้อง โดยเฉพาะในหัวข้อที่สำคัญ เช่น การเลือกตั้ง ผู้ใช้งานควรตรวจสอบข้อมูลจากแหล่งที่เชื่อถือได้

สรุป
BitNet b1.58 2B4T ไม่เพียงแต่แสดงให้เห็นว่า LLM สามารถมีประสิทธิภาพสูงในขนาดที่เล็กและประหยัดทรัพยากร แต่ยังเป็นการท้าทายแนวคิดที่ว่า AI ต้องใช้ฮาร์ดแวร์ราคาแพงเท่านั้น ด้วยความสามารถที่เทียบเคียงโมเดลชั้นนำ การใช้งานที่ประหยัดพลังงาน และการเปิดให้ใช้งานฟรี โมเดลนี้มีศักยภาพในการเปลี่ยนแปลงวิธีที่เราใช้ AI ในอนาคต

Scroll to Top