การแข่งขัน AI ระหว่างสหรัฐฯ และจีนเผชิญจุดเปลี่ยน หลังพบช่องโหว่ด้านความปลอดภัยร้ายแรง
การเปิดตัวโมเดลปัญญาประดิษฐ์ DeepSeek-R1 ส่งผลกระทบต่อเศรษฐกิจทั่วโลกอย่างหนัก โดยมีรายงานว่ามูลค่าตลาดหุ้นทั่วโลกหายไปกว่า 1 ล้านล้านดอลลาร์สหรัฐ หลังการเปิดตัวของ AI รุ่นนี้ นักวิเคราะห์ด้านเทคโนโลยีชื่อดังอย่าง Marc Andreessen ถึงกับเปรียบเทียบเหตุการณ์นี้ว่าเป็น “ช่วงเวลาสปุตนิกของ AI” ซึ่งสะท้อนถึงข้อกังวลด้านความมั่นคงระดับโลกเกี่ยวกับเทคโนโลยีปัญญาประดิษฐ์จากจีน
อย่างไรก็ตาม รายงานการทดสอบด้านความปลอดภัยจากบริษัท Enkrypt AI ซึ่งเป็นผู้นำด้านการตรวจสอบความปลอดภัยและการปฏิบัติตามกฎระเบียบของ AI ได้เปิดเผยข้อบกพร่องด้านจริยธรรมและความปลอดภัยที่ร้ายแรงในแบบจำลองนี้ โดยพบว่า DeepSeek-R1 มีแนวโน้มสร้างเนื้อหาที่เป็นอันตราย รวมถึงเนื้อหาที่มีอคติ รหัสที่ไม่ปลอดภัย และข้อมูลที่เกี่ยวข้องกับอาชญากรรมและภัยคุกคามด้านความมั่นคง
ประเด็นหลักจากรายงานของ Enkrypt AI:
🔴 DeepSeek-R1 มีแนวโน้มสร้างเนื้อหาที่เป็นอันตรายสูงกว่าแบบจำลอง AI อื่น ๆ ดังนี้
- 3 เท่า ของ Claude-3 Opus ในด้านอคติ
- 4 เท่า ของ OpenAI o1 ในการสร้างโค้ดที่ไม่ปลอดภัย
- 4 เท่า ของ GPT-4o ในการสร้างเนื้อหาที่เป็นพิษ
- 11 เท่า ของ OpenAI o1 ในการสร้างเนื้อหาที่เป็นอันตราย
- 3.5 เท่า ในการผลิตเนื้อหาที่เกี่ยวข้องกับอาวุธเคมี ชีวภาพ และนิวเคลียร์
จุดอ่อนสำคัญของ DeepSeek-R1
📌 อคติและการเลือกปฏิบัติ
- 83% ของการทดสอบด้านอคติ พบว่าระบบให้ผลลัพธ์ที่มีอคติในเรื่องของเชื้อชาติ เพศ ศาสนา และสุขภาพ ซึ่งอาจละเมิดกฎหมายระดับโลก เช่น กฎหมาย AI ของสหภาพยุโรป (EU AI Act)
📌 เนื้อหาอันตรายและแนวคิดสุดโต่ง
- 45% ของการทดสอบเกี่ยวกับเนื้อหาที่เป็นอันตราย พบว่าสามารถหลีกเลี่ยงมาตรการป้องกันและสร้างเนื้อหาที่เกี่ยวข้องกับอาชญากรรม อาวุธผิดกฎหมาย และการโฆษณาชวนเชื่อของกลุ่มหัวรุนแรง
📌 ภาษาที่เป็นพิษ
- ระบบติดอันดับ 20% ล่างสุด ในด้านความปลอดภัยของ AI โดยพบว่า 6.68% ของการตอบกลับมีภาษาหยาบคายหรือแนวคิดสุดโต่ง
📌 ความเสี่ยงด้านความปลอดภัยไซเบอร์
- 78% ของการทดสอบด้านความปลอดภัยทางไซเบอร์ สามารถหลอกให้ DeepSeek-R1 สร้างโค้ดที่เป็นอันตราย เช่น มัลแวร์และเครื่องมือแฮ็กกิ้ง
📌 ภัยคุกคามทางชีวภาพและเคมี
- DeepSeek-R1 สามารถให้คำอธิบายอย่างละเอียดเกี่ยวกับปฏิกิริยาของ ก๊าซมัสตาร์ด (Mustard Gas) กับ DNA ซึ่งอาจถูกนำไปใช้ในอาวุธชีวภาพและเคมี
คำเตือนจากผู้เชี่ยวชาญ
Sahil Agarwal CEO ของ Enkrypt AI กล่าวว่า
“แม้ว่า DeepSeek-R1 จะช่วยลดต้นทุนของ AI ได้มาก แต่ความเสี่ยงด้านความปลอดภัยที่ร้ายแรงไม่สามารถมองข้ามได้ การป้องกันต้องได้รับการพัฒนาไปพร้อมกับนวัตกรรม มิใช่เป็นเรื่องรองหลังจากเกิดปัญหาแล้ว”
นอกจากนี้ เขายังเตือนว่า การแข่งขันด้าน AI ระหว่างจีนและสหรัฐฯ อาจนำไปสู่ความเสี่ยงที่อาชญากรไซเบอร์ เครือข่ายข้อมูลเท็จ และแม้แต่ผู้ที่มีเจตนาพัฒนาอาวุธชีวภาพสามารถนำเทคโนโลยีนี้ไปใช้ได้ ซึ่งถือเป็นภัยคุกคามระดับโลกที่ต้องได้รับการจัดการอย่างเร่งด่วน
👉 อ่านรายงานฉบับเต็มของ Enkrypt AI ได้ที่ ลิงก์นี้