UL Procyon AI Inference พร้อมใช้งานบน macOS แล้ว

เมื่อเดือนที่แล้ว เราได้มุ่งมั่นที่จะพัฒนาข้อเสนอ AI Inference Benchmarks ของเราต่อไปด้วยการเปิดตัว AI Image Generation Benchmark ซึ่งเป็นส่วนเสริมของ AI Computer Vision Benchmark ของเรา

ในวันนี้ เราได้เพิ่มการสนับสนุนสำหรับเครื่องมือ Core ML AI Inference Engine ให้กับ AI Computer Vision Benchmark ของเรา ด้วยการอัปเดตนี้ ตอนนี้ UL Procyon สามารถนำมาใช้เพื่อวัดประสิทธิภาพ AI Inference ของคอมพิวเตอร์ที่ใช้ macOS บน Apple Silicon ได้แล้ว

เครื่องมือ UL Procyon AI Computer Vision Benchmark จะให้ข้อมูลเชิงลึกเกี่ยวกับประสิทธิภาพของเครื่องมือ AI Inference ช่วยให้คุณตัดสินใจได้ว่าควรใช้เครื่องมือใดเพื่อให้ได้ประสิทธิภาพสูงสุดบนฮาร์ดแวร์และแพลตฟอร์มที่คุณต้องการนำไปใช้งาน เครื่องมือนี้รองรับเครื่องมือ AI Inference ชั้นนำหลายตัว โดยคะแนนเครื่องมือจะสะท้อนถึงประสิทธิภาพการทำงานของการดำเนินการอนุมานบนอุปกรณ์

การเรียกใช้ Computer Vision Benchmark บน macOS โดยใช้ Core ML จะดำเนินการเวิร์กโหลด AI Inference เดียวกันกับบน Windows และเรียกใช้โดยใช้บรรทัดคำสั่ง เกณฑ์มาตรฐานบน macOS ช่วยให้คุณใช้ตัวเร่งความเร็วได้ 4 แบบเพื่อรันเวิร์กโหลด:

  • CPU
  • CPU + GPU
  • CPU + Neural Engine
  • ทั้งหมด (CPU + GPU + Neural Engine)

ปัจจุบัน ตัวดำเนินการทั้งหมดของโมเดล AI ใน AI Computer Vision Benchmark ได้รับการรองรับโดย Neural Engine และ GPU ที่พบในฮาร์ดแวร์ Mac รุ่นปัจจุบัน

ในขณะเปรียบเทียบเอ็นจิ้นอนุมาน สิ่งสำคัญคือต้องพิจารณาความแม่นยำนอกเหนือจากประสิทธิภาพดิบ มีการแลกเปลี่ยนที่เห็นได้ชัดระหว่างความแม่นยำและประสิทธิภาพการอนุมาน โดยเฉพาะอย่างยิ่งเมื่อเปรียบเทียบระหว่างผลลัพธ์จากเอ็นจิ้นอนุมาน FP16 และ INT เราได้ดำเนินการทดสอบของเราเองในการวัดความแม่นยำของเอ็นจิ้นอนุมานที่รองรับโดย Procyon AI Inference Benchmarks สำหรับข้อมูลเพิ่มเติม โปรดดูหน้านี้ในไซต์ UL Solutions Benchmarks

นี่คือการอัปเดตฟรีสำหรับลูกค้า UL Procyon ทุกคนที่มีใบอนุญาตประจำปีที่ถูกต้องสำหรับ UL Procyon AI Inference Benchmarks คุณเพียงแค่ต้องอัปเดตเป็น UL Procyon เวอร์ชันล่าสุดเพื่อเข้าถึง