Perplexity ปลดล็อก DeepSeek-R1 ให้เป็นกลางและไร้การเซ็นเซอร์
ปัจจุบัน โมเดลภาษาขนาดใหญ่ (LLM) ถือเป็นหัวใจสำคัญของปัญญาประดิษฐ์ (AI) ที่สามารถช่วยตอบคำถาม วิเคราะห์ข้อมูล และให้เหตุผลเชิงลึกได้อย่างแม่นยำ หนึ่งในโมเดลที่น่าสนใจคือ DeepSeek-R1 ซึ่งมีศักยภาพใกล้เคียงกับโมเดลชั้นนำในวงการ อย่างไรก็ตาม ปัญหาหลักของ DeepSeek-R1 คือการเซ็นเซอร์และอคติในบางหัวข้อ โดยเฉพาะประเด็นที่อ่อนไหวในประเทศจีน ทำให้ไม่สามารถให้คำตอบที่เป็นกลางและครบถ้วนได้
เพื่อแก้ไขปัญหานี้ Perplexity ได้พัฒนา R1-1776 ซึ่งเป็นเวอร์ชันที่ผ่านกระบวนการปรับแต่งให้สามารถตอบคำถามได้อย่างแม่นยำ ปราศจากการเซ็นเซอร์ และเปิดกว้างสำหรับทุกประเด็น พร้อมเปิดให้ใช้งานแบบโอเพ่นซอร์ส

ปัญหาของ DeepSeek-R1 และแนวทางแก้ไข
DeepSeek-R1 มีข้อจำกัดที่สำคัญในการตอบคำถามเกี่ยวกับประเด็นทางการเมืองและเศรษฐกิจ ตัวอย่างเช่น เมื่อถูกถามว่า “การประกาศเอกราชของไต้หวันจะส่งผลกระทบต่อราคาหุ้นของ Nvidia อย่างไร?” แทนที่โมเดลจะให้คำตอบที่เป็นกลาง กลับตอบด้วยถ้อยคำที่สนับสนุนจุดยืนของรัฐบาลจีน
เพื่อให้ AI สามารถให้คำตอบที่เป็นกลางและปราศจากอคติ ทีมวิจัยของ Perplexity ได้ใช้กระบวนการ post-training หรือการฝึกฝนเพิ่มเติมบนข้อมูลที่ถูกเซ็นเซอร์ โดยมีเป้าหมายหลักในการทำให้โมเดลสามารถให้คำตอบที่ตรงกับความจริงโดยไม่มีการปิดกั้นข้อมูล
วิธีการฝึกโมเดล R1-1776
การพัฒนา R1-1776 ต้องอาศัยการรวบรวมและประมวลผลข้อมูลที่มีคุณภาพสูง โดยมีขั้นตอนดังนี้:
- ระบุหัวข้อที่ถูกเซ็นเซอร์
- ใช้ผู้เชี่ยวชาญในการกำหนดหัวข้อกว่า 300 หัวข้อ ที่ถูกเซ็นเซอร์โดยรัฐบาลจีน
- สร้างระบบคัดกรองข้อความ
- พัฒนา multilingual censorship classifier หรือระบบตรวจจับการเซ็นเซอร์ที่รองรับหลายภาษา
- รวบรวมข้อมูลคำถามและคำตอบที่เหมาะสม
- คัดกรองข้อมูลจากผู้ใช้งานที่ให้อนุญาต เพื่อรวบรวมชุดข้อมูลที่มีคำถามกว่า 40,000 รายการ
- ฝึกฝนโมเดลบนข้อมูลที่ไม่มีการเซ็นเซอร์
- ใช้เทคโนโลยีของ Nvidia’s NeMo 2.0 เพื่อฝึกโมเดลให้สามารถตอบคำถามโดยไม่มีอคติ

ผลลัพธ์และการทดสอบ
หลังจากปรับแต่งโมเดล R1-1776 ทีมวิจัยได้ทดสอบประสิทธิภาพโดยเปรียบเทียบกับ DeepSeek-R1 และโมเดลชั้นนำอื่น ๆ พบว่า:
- R1-1776 สามารถตอบคำถามที่เคยถูกเซ็นเซอร์ได้ครบถ้วนและตรงกับข้อเท็จจริง
- ยังคงความสามารถด้านคณิตศาสตร์และการให้เหตุผลได้ดีเทียบเท่ากับโมเดลต้นฉบับ
- ไม่สูญเสียคุณภาพของการตอบคำถามในประเด็นทั่วไป
ตัวอย่างเช่น เมื่อนำ R1-1776 มาตอบคำถามเกี่ยวกับผลกระทบของไต้หวันต่อหุ้น Nvidia พบว่า โมเดลสามารถให้คำตอบที่อิงกับข้อมูลทางเศรษฐกิจและภูมิรัฐศาสตร์ได้อย่างแม่นยำ แทนที่จะตอบในเชิงโฆษณาชวนเชื่อแบบเดิม
บทสรุป
การเปิดโอเพ่นซอร์ส R1-1776 ถือเป็นก้าวสำคัญของวงการ AI เพราะช่วยให้โมเดลภาษาขนาดใหญ่สามารถให้คำตอบที่เป็นกลาง ไม่มีการเซ็นเซอร์ และพร้อมใช้งานสำหรับการวิเคราะห์ข้อมูลที่ซับซ้อน นักพัฒนาและนักวิจัยสามารถนำโมเดลนี้ไปใช้เพื่อสร้างระบบ AI ที่แม่นยำและเป็นอิสระจากข้อจำกัดทางการเมือง
สำหรับผู้ที่สนใจ สามารถดาวน์โหลดโมเดล R1-1776 ได้จาก HuggingFace Repo หรือใช้งานผ่าน Sonar API เพื่อสัมผัสประสบการณ์ของ AI ที่พร้อมตอบคำถามทุกด้านอย่างแท้จริง
ข้อมูลและรายละเอียดทั้งหมดดูเพิ่มเติมได้ที่ https://www.perplexity.ai/hub/blog/open-sourcing-r1-1776
ดาวน์โหลดโมเดลได้ที่ https://huggingface.co/perplexity-ai/r1-1776