DeepSeek
|

Perplexity ปลดล็อก DeepSeek-R1 ให้เป็นกลางและไร้การเซ็นเซอร์

ปัจจุบัน โมเดลภาษาขนาดใหญ่ (LLM) ถือเป็นหัวใจสำคัญของปัญญาประดิษฐ์ (AI) ที่สามารถช่วยตอบคำถาม วิเคราะห์ข้อมูล และให้เหตุผลเชิงลึกได้อย่างแม่นยำ หนึ่งในโมเดลที่น่าสนใจคือ DeepSeek-R1 ซึ่งมีศักยภาพใกล้เคียงกับโมเดลชั้นนำในวงการ อย่างไรก็ตาม ปัญหาหลักของ DeepSeek-R1 คือการเซ็นเซอร์และอคติในบางหัวข้อ โดยเฉพาะประเด็นที่อ่อนไหวในประเทศจีน ทำให้ไม่สามารถให้คำตอบที่เป็นกลางและครบถ้วนได้

เพื่อแก้ไขปัญหานี้ Perplexity ได้พัฒนา R1-1776 ซึ่งเป็นเวอร์ชันที่ผ่านกระบวนการปรับแต่งให้สามารถตอบคำถามได้อย่างแม่นยำ ปราศจากการเซ็นเซอร์ และเปิดกว้างสำหรับทุกประเด็น พร้อมเปิดให้ใช้งานแบบโอเพ่นซอร์ส

DeepSeek R1 1776 censorship
ปัญหาของ DeepSeek-R1 และแนวทางแก้ไข

DeepSeek-R1 มีข้อจำกัดที่สำคัญในการตอบคำถามเกี่ยวกับประเด็นทางการเมืองและเศรษฐกิจ ตัวอย่างเช่น เมื่อถูกถามว่า “การประกาศเอกราชของไต้หวันจะส่งผลกระทบต่อราคาหุ้นของ Nvidia อย่างไร?” แทนที่โมเดลจะให้คำตอบที่เป็นกลาง กลับตอบด้วยถ้อยคำที่สนับสนุนจุดยืนของรัฐบาลจีน

เพื่อให้ AI สามารถให้คำตอบที่เป็นกลางและปราศจากอคติ ทีมวิจัยของ Perplexity ได้ใช้กระบวนการ post-training หรือการฝึกฝนเพิ่มเติมบนข้อมูลที่ถูกเซ็นเซอร์ โดยมีเป้าหมายหลักในการทำให้โมเดลสามารถให้คำตอบที่ตรงกับความจริงโดยไม่มีการปิดกั้นข้อมูล

วิธีการฝึกโมเดล R1-1776

การพัฒนา R1-1776 ต้องอาศัยการรวบรวมและประมวลผลข้อมูลที่มีคุณภาพสูง โดยมีขั้นตอนดังนี้:

  1. ระบุหัวข้อที่ถูกเซ็นเซอร์
    • ใช้ผู้เชี่ยวชาญในการกำหนดหัวข้อกว่า 300 หัวข้อ ที่ถูกเซ็นเซอร์โดยรัฐบาลจีน
  2. สร้างระบบคัดกรองข้อความ
    • พัฒนา multilingual censorship classifier หรือระบบตรวจจับการเซ็นเซอร์ที่รองรับหลายภาษา
  3. รวบรวมข้อมูลคำถามและคำตอบที่เหมาะสม
    • คัดกรองข้อมูลจากผู้ใช้งานที่ให้อนุญาต เพื่อรวบรวมชุดข้อมูลที่มีคำถามกว่า 40,000 รายการ
  4. ฝึกฝนโมเดลบนข้อมูลที่ไม่มีการเซ็นเซอร์
    • ใช้เทคโนโลยีของ Nvidia’s NeMo 2.0 เพื่อฝึกโมเดลให้สามารถตอบคำถามโดยไม่มีอคติ

DeepSeek R1 1776 Performance
ผลลัพธ์และการทดสอบ

หลังจากปรับแต่งโมเดล R1-1776 ทีมวิจัยได้ทดสอบประสิทธิภาพโดยเปรียบเทียบกับ DeepSeek-R1 และโมเดลชั้นนำอื่น ๆ พบว่า:

  • R1-1776 สามารถตอบคำถามที่เคยถูกเซ็นเซอร์ได้ครบถ้วนและตรงกับข้อเท็จจริง
  • ยังคงความสามารถด้านคณิตศาสตร์และการให้เหตุผลได้ดีเทียบเท่ากับโมเดลต้นฉบับ
  • ไม่สูญเสียคุณภาพของการตอบคำถามในประเด็นทั่วไป

ตัวอย่างเช่น เมื่อนำ R1-1776 มาตอบคำถามเกี่ยวกับผลกระทบของไต้หวันต่อหุ้น Nvidia พบว่า โมเดลสามารถให้คำตอบที่อิงกับข้อมูลทางเศรษฐกิจและภูมิรัฐศาสตร์ได้อย่างแม่นยำ แทนที่จะตอบในเชิงโฆษณาชวนเชื่อแบบเดิม


บทสรุป

การเปิดโอเพ่นซอร์ส R1-1776 ถือเป็นก้าวสำคัญของวงการ AI เพราะช่วยให้โมเดลภาษาขนาดใหญ่สามารถให้คำตอบที่เป็นกลาง ไม่มีการเซ็นเซอร์ และพร้อมใช้งานสำหรับการวิเคราะห์ข้อมูลที่ซับซ้อน นักพัฒนาและนักวิจัยสามารถนำโมเดลนี้ไปใช้เพื่อสร้างระบบ AI ที่แม่นยำและเป็นอิสระจากข้อจำกัดทางการเมือง

สำหรับผู้ที่สนใจ สามารถดาวน์โหลดโมเดล R1-1776 ได้จาก HuggingFace Repo หรือใช้งานผ่าน Sonar API เพื่อสัมผัสประสบการณ์ของ AI ที่พร้อมตอบคำถามทุกด้านอย่างแท้จริง

ข้อมูลและรายละเอียดทั้งหมดดูเพิ่มเติมได้ที่ https://www.perplexity.ai/hub/blog/open-sourcing-r1-1776

ดาวน์โหลดโมเดลได้ที่ https://huggingface.co/perplexity-ai/r1-1776