NVIDIA GeForce 101: มาทำความรู้จักการ์ดจอกับ GeForce RTX 40 Series

สารบัญบทความ
  1. Chapter 1: การ์ดจอคืออะไร ทำหน้าที่อะไร มีกี่ประเภท 
  2. Chapter 2 : กายวิภาคการ์ดจอ ในการ์ดจอประกอบไปด้วยอะไรบ้าง และศัพท์เทคนิคของการ์ดจอ
  3. Chapter 3 : การ์ดจอกับอัตราการบริโภคไฟเลี้ยง คอนเน็คเตอร์ไฟเลี้ยงแบบต่างๆ
  4. Chapter 4 : การ์ดจอกับชุดระบายความร้อน 
  5. Chapter 5 : RTX AI PC เข้าสู่ยุค AI ด้วยประสิทธิภาพที่เหนือกว่า
  6. Chapter 6 : ความแตกต่างของการ์ดจอในแต่ละรุ่น และความเหมาะสมในการเล่นเกม และราคาที่ต้องจ่าย
  7. Chapter 7 : ซอฟต์แวร์เสริมการทำงานและทดสอบประสิทธิภาพของการ์ดจอ
  8. Chapter 8 : บทสรุป การเลือกซื้อการ์ดจอ

บทความนี้จะปูพื้นฐานเกี่ยวกับกราฟิกการ์ดหรือการ์ดจอตั้งแต่เริ่มเพื่อให้ผู้อ่านนำความรู้ต่าง ๆ ไปเลือกซื้อเลือกใช้การ์ดจอได้ตรงกับความต้องการได้อย่างเหมาะสม บทความนี้เราจะอธิบายเรื่องของการ์ดจอผ่านการเดินทางของ NVIDIA GeForce ซึ่งถือว่าเป็นการ์ดจอที่ครองส่วนแบ่งของตลาดมากที่สุดในเวลานี้ และเป็นการ์ดจอที่ตอบสนองความต้องการของผู้ใช้ได้ในทุกรูปแบบไม่ว่าเล่นเกม ทำงาน หรือประมวลผลด้าน AI

Chapter 1: การ์ดจอคืออะไร ทำหน้าที่อะไร มีกี่ประเภท 

หน้าที่ของการ์ดจอ

การ์ดจอหรือกราฟิกการ์ด แรกเริ่มนั้นมีหน้าที่ในการแปลงสัญญาณข้อมูลจากระบบคอมพิวเตอร์ให้มาอยู่ในรูปแบบของภาพนิ่ง และภาพเคลื่อนไหว แล้วนำไปแสดงผลบนจอภาพเพื่อให้ผู้ใช้สามารถสื่อสารและทำความเข้าใจกับข้อมูลต่าง ๆ ได้  ต่อมาเมื่อเทคโนโลยีได้ก้าวหน้าไปการ์ดจอไม่เพียงแต่ทำหน้าที่ในการแสดงผลเท่านั้น แต่ยังสามารถทำหน้าที่ในการประมวลผลข้อมูลได้อีกด้วย

ประเภทของการ์ดจอ

ในปัจจุบันเวลาเราพูดถึงการ์ดจอหรือกราฟิกการ์ดก็จะมีการแบ่งออกเป็นสองประเภทใหญ่ ๆ ได้แก่

  • iGPU – Integrated Graphics Processing Unit หรือหน่วยประมวลผลกราฟิกแบบรวมซึ่งในปัจจุบันจะถูกรวมเอาไว้ในตัวซีพียูด้วยเลย ไม่ว่าจะเป็นซีพียูจากอินเทลหรือเอเอ็มดี ส่วนประสิทธิภาพในการทำงานของ iGPU นั้นก็มีหลายระดับตั้งแต่ใช้งานเพื่อการแสดงผลขั้นพื้นฐาน ไปจนถึงเล่นเกมในระดับเบื้องต้นได้
  • dGPU – Discrete Graphics Processing Unit หรือหน่วยประมวลผลกราฟิกแบบแยก ซึ่งแบบนี้นี่แหละที่เราหมายถึงตัวการ์ดจอจริง ๆ หรือกราฟิกการ์ด โดยการ์ดจอเหล่านี้ก็จะมีให้เลือกใช้งานได้หลายหลายระดับเช่นกัน มีตั้งแต่ระดับเริ่มต้นเพื่อการใช้งานทั่วไปจนถึงการ์ดจอเพื่อการเล่นเกมระดับสูง ที่รองรับกราฟิกในเกมสมัยใหม่อย่างเต็มรูปแบบ ไม่ว่าจะเป็นรองรับ Raytracing ไปจนถึงการเพิ่มคุณภาพของภาพด้วย AI ซึ่งเดียวเราจะพาคุณพบกับรายละเอียดเหล่านี้

อย่างไรก็ตามในหลายบริบทเราก็จะเรียกการ์ดจอหรือกราฟิกการ์ดว่า GPU เฉย ๆ ทั้งที่คำว่า GPU นั้นหมายถึงเฉพาะตัวชิปประมวลผลกราฟิกที่อยู่บน PCB ของตัวการ์ดจอเท่านั้นก็ตาม

กราฟิกชิป NVIDIA: จากหน่วยเร่งความเร็วการแสดงผล สู่หน่วยประมวลผลกราฟิกและ AI

คำว่า GPU (Graphics Processing Unit) หรือหน่วยประมวลผลกราฟิกนี้เป็นศัพท์ที่นำมาใช้กับการ์ดจอหรือกราฟิกการ์ดในช่วงปี 1999 เป็นต้นมา โดยก่อนหน้านั้นเราจะเรียกการ์ดจอหรือกราฟิกการ์ดตามต้นศัพท์ภาษาอังกฤษที่มาจากคำว่า Video Card, Video Adaptor, Display Card, Display Adaptor และ Graphics Card โดยที่บนตัวการ์ดจอเหล่านั้นก็ยังไม่มีสิ่งที่เรียกว่า GPU มีเพียงกราฟิกชิป (Graphics Chip) หรือหน่วยเร่งการทำงานกราฟิก (Graphics Accelerator) ที่ถูกผลิตขึ้นมาเพื่อใช้สร้างภาพกราฟิกแบบเป็นขั้นตอนของ Graphics Pipeline เท่านั้น ไม่เรื่องของการประมวลผลเข้ามาเกี่ยวข้อง

(รูปด้านบน: ขั้นตอนแบบสรุปในการสร้างภาพกราฟิกเปรียบเทียบก่อนและหลังการมี GeForce 256 ที่เป็น GPU รุ่นแรกของโลก) 

ในยุคก่อนที่จะมี GPU การประมวลผลกราฟิกจะทำอยู่บนตัว CPU และนำส่งข้อมูลต่าง ๆ มาประกอบเป็นรูปทรงทางเรขาคณิตเพื่อสร้างภาพ 2D/3D โดยใช้กราฟิกชิป ดังนั้นประสิทธิภาพในการทำงานด้านกราฟิกส่วนใหญ่จะถูกกำหนดโดยความสามารถจากตัวซีพียูเป็นหลัก

ในปี 1993, NVIDIA ได้เข้าสู่ตลาดการ์ดจอด้วยการผลิตกราฟิกชิปในตระกูล RIVA 128 ออกมาและตามมาด้วย RIVA TNT Series ซึ่งต้องยอมรับว่าในช่วงเวลานั้นการ์ดจอของ NVIDIA ก็ไม่ได้โดดเด่นอะไรแม้จะมีตัวเลือกค่อนข้างเยอะ 

จนกระทั่งในปี 1999 บริษัท NVIDIA ได้เปิดตัวหน่วยประมวลผลกราฟิก หรือ Graphics Processing Unit ออกมาเป็นครั้งแรกของโลกในรุ่น GeForce 256 โดย GPU รุ่นนี้มาพร้อมกับฮาร์ดแวร์เฉพาะด้านที่สามารถช่วยเร่งความเร็วของขั้นตอนในการสร้างภาพ 3D ทำให้ CPU มีเวลาว่างในการจัดการกับขั้นตอนต่อไปหรือทำงานอื่น ๆ ไปด้วยพร้อมกันได้เร็วขึ้น

อย่างไรก็ตามแม้จะมี GPU เกิดขึ้นมาแล้ว แต่ว่าฮาร์ดแวร์ทั้งหมดของ GPU ก็ถูกออกแบบมาให้อยู่ในลักษณะของ Fix Function คือจะมีหน่วยประมวลผลที่ทำหน้าที่เฉพาะด้าน เช่น Pixel shader, Vertex shader, Geometry shader, Texture Mapping Units และ Render Output Units เป็นต้น

(รูปด้านบน: ขั้นตอนการสร้างภาพกราฟิกเมื่อทำงานร่วมกับหน่วยฮาร์ดแวร์ต่าง ๆ ใน GPU)

และถ้าเราเจาะลึกไปในการทำงานของแต่ละส่วนก็จะมีขั้นตอนดังนี้ครับ

1. Input Assembly (GPU Front End)

  • หน้าที่: รับข้อมูลจาก buffer เช่น จุดยอด (vertices) และสร้าง primitive (เช่น สามเหลี่ยม)
  • การใช้งาน: ไม่มีการใช้ shader ในขั้นตอนนี้ แต่ข้อมูลที่ได้จะถูกส่งไปยัง Vertex Shader

2. Vertex Shader

  • หน้าที่: ปรับเปลี่ยนตำแหน่งของจุดยอดจากระบบพิกัดโลกไปยังระบบพิกัดกล้อง (เพื่อสร้างมุมมองของผู้ใช้) รวมถึงการคำนวณแสงพื้นฐาน
  • การใช้งาน: ใช้ Vertex Shaders เพื่อประมวลผลข้อมูลที่เกี่ยวข้องกับจุดยอด เช่น ตำแหน่ง, สี, และพิกัดเท็กซ์เจอร์

3. Geometry Shader

  • หน้าที่: ประมวลผล primitive ที่สร้างขึ้นจาก Vertex Shader โดยสามารถเพิ่มหรือลดจำนวนจุดยอดได้
  • การใช้งาน: ใช้ Geometry Shaders เพื่อปรับเปลี่ยนหรือสร้าง primitive ใหม่ แต่ไม่จำเป็นต้องใช้ในทุกกรณี

4. Rasterization

  • หน้าที่: แปลง primitive ที่ได้เป็นพิกเซลหรือ fragments ที่จะถูกประมวลผลต่อไป
  • การใช้งาน: ขั้นตอนนี้ไม่มีการใช้ shader แต่จะสร้าง fragments จาก primitive ที่ถูก rasterized

5. Fragment Shader (Pixel Shader)

  • หน้าที่: คำนวณสีและคุณสมบัติอื่น ๆ ของแต่ละ fragment ที่เกิดขึ้นจาก Rasterization
  • การใช้งาน: ใช้ Pixel Shaders เพื่อคำนวณสีของพิกเซล โดยอิงจากข้อมูลที่ได้จาก Vertex Shader และเท็กซ์เจอร์ที่ถูกผูกไว้ รวมถึงการจัดการกับแสงและเอฟเฟกต์ต่าง ๆ

6. Texture Mapping Units

  • หน้าที่: จัดการกับเท็กซ์เจอร์ที่ใช้ในการเรนเดอร์ภาพ
  • การใช้งาน: ทำงานร่วมกับ Pixel Shaders ในการดึงข้อมูลจากเท็กซ์เจอร์และนำมาผสมผสานกับสีที่คำนวณใน Fragment Shader

7. Render Output Units

  • หน้าที่: รวมข้อมูลสีและความลึกจาก Pixel Shader กับข้อมูลใน framebuffer เพื่อสร้างภาพสุดท้ายที่จะแสดงบนหน้าจอ
  • การใช้งาน: ใช้ Render Output Units ในการจัดการกับ alpha blending, depth testing, และ stencil testing เพื่อให้แน่ใจว่าพิกเซลที่ถูกต้องจะแสดงผล

ทีนี้เมื่อเวลาเราต้องการเพิ่มประสิทธิภาพของตัวกราฟิกชิปสิ่งที่ต้องทำก็คือต้องเพิ่มจำนวน ของ Shader ทั้งหลายไม่ว่าจะเป็น Pixel shader, Vertex shader, Geometry shader และหน่วยอื่น ๆ ก็ต้องเพิ่มขึ้นตามไปด้วย แต่ที่น่าสนใจคือขั้นตอนในการสร้างภาพนั้น Shader แต่ละชนิดก็ไม่ได้ใช้งานเป็นสัดส่วนต่อกัน ดังนั้นจึงมีแนวคิดใหม่ที่สร้าง Shader Unit เหล่านี้ ให้สามารถปรับเปลียนการทำงานได้ตามที่เราโปรแกรมหรือปรับการทำงานตามชุดคำสั่ง ซึ่งนอกจากจะทำให้สามารถใช้ประโยชน์จากฮาร์ดแวร์ได้เต็มที่แล้วยังทำให้ประสิทธิภาพในการทำงานสูงขึ้นมาอีกเป็นเท่าตัว รวมไปถึงยังสามารถปรับเพิ่มหรือลดขนาดของตัวกราฟิกชิปได้ง่าย และนั่นก็เป็นที่มาของ Unified shaders ที่สามารถปรับเปลี่ยนการทำงานได้ทั้ง Vertex, Pixel และ Geometry shaders

(รูปด้านบน: บล็อกไดอะแกรมของ GeForce 8800 Series ที่เป็น CUDA รุ่นแรก บล็อกสีเขียวขนาดเล็กนั้นคือกลุ่มของ Streamming Processor หรือ CUDA ซึ่งจะเห็นได้ว่าเป็นเหมือนคอร์ประมวลผลขนาดเล็กจำนวนมาก ที่สามารถประมวลผลคำสั่งได้พร้อม ๆ กัน)

ในปี 2008 ด้วยแนวคิดแบบ Unified shaders นี้เองก็ทำให้เกิดสถาปัตยกรรมที่เรียกว่า CUDA (Compute Unified Device Architecture) โดยสถาปัตยกรรมแบบ CUDA นี้ ไม่เพียงแต่ทำหน้าที่เป็น Shader ที่ปรับเปลี่ยนได้ตามโปรแกรมที่กำหนดเท่านั้น แต่ยังมีความสามารถในการประมวลผลข้อมูลแบบขนานหรือหลายงานพร้อมกันอีกด้วยจนทำให้ เกิดคำเรียก GPU ในลักษณะนี้ว่า GPGPU (General-Purpose computing on Graphics Processing Units) ซึ่งถือว่าเป็นเทคโนโลยีที่เปลี่ยนแปลงวิธีการใช้ GPU ที่ถูกออกแบบมาเพื่อกราฟิกให้ทำงานในด้านอื่น ๆ ที่ต้องการความสามารถในการประมวลผลแบบขนาน ทำให้สามารถเร่งความเร็วในการคำนวณและเพิ่มประสิทธิภาพในการทำงานในหลาย ๆ ด้านได้อย่างมีนัยสำคัญ

และ NVIDIA ก็ได้เรียก CUDA ที่มีเป็นจำนวนมากใน GPU นี้ว่า CUDA Core โดยกราฟิกชิปกลุ่มแรกที่ใช้ CUDA นี้ก็จะมีทั้ง GeForce 8800 Series สำหรับตลาดเกม, Quadro FX 5600 สำหรับตลาดกราฟิกระดับเวิร์คสเตชัน, และ Tesla 800 Series สำหรับตลาดศุนย์ข้อมูล จะเห็นได้กว่าการมาของ CUDA นี้ทำให้ NVIDA สามารถเปิดตลาดกราฟิกให้ถูกนำไปใช้งานได้ในวงกว้างมากขึ้น

จากนั้นในปี 2012, GPGPU ของ NVIDIA ก็ได้ถูกนำไปใช้เป็นหน่วยประมวลผลของโครงการ AlexNet ซึ่งเป็นหนึ่งในสถาปัตยกรรมของโครงข่ายประสาทเทียมเชิงลึก (DNN: Deep Neural Network) ที่ใช้ในการประมวลผลภาพ ซึ่งถูกออกแบบมาเพื่อการแข่งขัน ImageNet Large Scale Visual Recognition Challenge (ILSVRC) และโครงการ AlexNet ประสบความสำเร็จในการลดข้อผิดพลาดของการจำแนกภาพลงอย่างมาก และถือเป็นหนึ่งในสถาปัตยกรรมแรก ๆ ที่ทำให้การใช้โครงข่ายประสาทเทียมเชิงลึกได้รับความนิยมเพิ่มขึ้นอย่างรวดเร็ว และนี่ก็ถือว่าเป็นจุดเริ่มต้นของงานด้าน AI จากทาง NVIDIA (แต่ในทางปฏิบัติ NVIDIA ได้มีการพัฒนาเรื่อง Machine Learning และ Deep Learning มาก่อนล่วงหน้าแล้ว)

(รูปด้านบนคือ SM หรือกลุ่มของ CUDA Core ที่อยู่ใน GeForce GTX 10 Series ก่อนที่จะเปลี่ยนมาเป็น GeForce RTX ที่ถูกเพิ่ม Tensor Core และ RT Core เข้าไป)

กลับมาที่วงการกราฟิกกันต่อ ในปี 2018 NVIDIA ได้ปฏิวัติวงการกราฟิกอีกครั้งด้วยการเปิดตัวกราฟิกชิปรุ่นใหม่ที่ชื่อว่า GeForce RTX 20 ซีรีส์ (ชื่อรหัส Turing) ประกอบไปด้วย GeForce RTX 2080 Ti,  RTX 2080 และ RTX 2070 ซึ่งเป็นกราฟิกชิปสามรุ่นแรกที่นำเสนอการสร้างกราฟิกที่ใช้เทคนิค Ray Tracing แบบเรียลไทม์ พร้อมด้วย AI เพิ่มคุณภาพของพาก จากกราฟิกการ์ดในกลุ่มผู้บริโภคทั่วไป การพัฒนานี้เป็นก้าวสำคัญในวงการกราฟิก โดยเฉพาะสำหรับการเล่นเกมและการสร้างภาพสามมิติที่สมจริงมากขึ้น

การเปลี่ยนแปลงจาก GeForce GTX มาสู่ GeForce RTX ถือว่าเป็นการเปลี่ยนแปลงที่ก้าวกระโดดอย่างมากจากเดิมที่มีเพียง CUDA Core เป็นหน่วยประมวลผลหลัก ต่อมาก็ได้เพิ่ม Tensor Core และ RT Core เข้ามาด้วย ทำให้การประมวลผลของ GeForce RTX ทั้ง RTX 20, RTX 30 และ RTX 40 ในปัจจุบัน มีการหน่วยการประมวลผล 3 ชุดหลัก ๆ ด้วยกันคือ 1. CUDA Core, 2. RT Core และ 3. Tensor Core

  • Rasterization (ใช้ CUDA Cores) เน้นความเร็วในการแสดงผลและประสิทธิภาพในการเรนเดอร์ภาพที่ดี ซึ่งเหมาะกับเกมที่ต้องการเฟรมเรตสูง โดยเป็นการสร้างภาพจากวัตถุ 3D มาเป็นพิกเซลในหน้าจอ
  • Ray Tracing (ใช้ RT Cores) เน้นความสมจริงของแสงและเงาในฉาก การจำลองการสะท้อนแสง และการหักเหของแสง ซึ่งทำให้ภาพมีความสมจริงมากกว่าแต่ใช้การคำนวณที่ซับซ้อนกว่ามาก
  • AI Upscaling และ Super Sampling (ใช้ Tensor Cores) ช่วยให้ภาพที่ได้จากการประมวลผลแบบ Ray Tracing สามารถเรนเดอร์ได้เร็วขึ้น โดยใช้ AI ในการเติมเต็มรายละเอียดที่ขาดหายไป ทำให้ได้ภาพที่คมชัดและประสิทธิภาพสูงขึ้น

ถ้าเราลงรายละเอียดลึกไปกว่านี้อีกสักนิด CUDA Core ของ GeForce GTX กับ GeForce RTX ก็มีความแตกต่างกันไปอีกคือจากเดิมที่ CUDA Core ที่รองรับเฉพาะ FP32 เพียงอย่างเดียวก็มีการเพิ่มส่วนที่เป็น INT32 เข้ามาด้วย ซึ่งจุดนี้มีผลอย่างมากต่อเรื่องการทำขั้นตอนการอนุมานของงานด้าน AI และเมื่อร่วมกับ Tensor Cores ที่ประมวลผลชุดข้อมูลที่เป็น Matrix ที่โดยมากใช้กับข้อมูลด้าน AI ด้วยแล้ว ก็ยิ่งทำให้ประสิทธิภาพในด้าน AI ของ GeForce RTX มีความก้าวกระโดดอย่างมาก

(รูปด้านบน: เปรียบเทียบการเปลี่ยนแปลงของ SM ใน RTX 20, RTX 30 และ RTX 40)

ทีนี้เราลองมาเปรียบเทียบกันดูระหว่าง GeForce RTX 20, RTX 30 และ RTX 40 ว่ามีความเปลี่ยนแปลงอย่างไรบ้างในเชิงเทคนิคในแต่ละส่วน

คุณสมบัติRTX 20 SeriesRTX 30 SeriesRTX 40 Series
CUDA CoreFP32 Processingสลับการประมวลผลระหว่าง FP32 และ INTFP32 Dual Issue (สามารถทำ FP32 สองคำสั่งพร้อมกัน)FP32 Dual Issue ที่มีความเร็วสูงขึ้น
INT Processingไม่สามารถประมวลผล FP32 และ INT พร้อมกันประมวลผล FP32 และ INT พร้อมกันประสิทธิภาพสูงขึ้นและรองรับการทำงานขนานได้ดียิ่งขึ้น
Tensor Coreรุ่น Tensor CoreGen 2Gen 3Gen 4
รูปแบบการคำนวณของ Tensor CoreFP16, INT8FP16, INT8, INT4, SparsityFP16, INT8, INT4, FP8
DLSS ที่รองรับDLSS 1.0DLSS 2.0DLSS 3.x
ประสิทธิภาพ AIปานกลางเร็วขึ้น 2 เท่า (เมื่อใช้ Sparsity)เร็วขึ้น 4 เท่า
การประยุกต์ใช้งาน AIอัปสเกลด้วย DLSS 1.0คุณภาพภาพดีขึ้น, ประสิทธิภาพสูงขึ้นเพิ่มเฟรมเรตผ่าน Frame Generation DLSS 3.x
RT Coreรุ่น RT CoreGen 1Gen 2Gen 3
ประสิทธิภาพ Ray Tracing10 Giga Rays/s20-35 Giga Rays/s70+ Giga Rays/s
เทคนิคการคำนวณRay Tracing แบบพื้นฐานเพิ่ม Motion Blur และการปรับปรุง BVHMicro-mesh, เพิ่ม Opacity Micro Maps เป็นฮาร์ดแวร์พิเศษที่รองรับ DLSS 3.x โดยเฉพาะ ช่วยการสร้างเฟรม, และรองรับ SER ทำให้การประมวลผล Ray Tracing เร็วขึ้น
การรองรับความละเอียดสูงมีข้อจำกัดปรับปรุงขึ้นมากรองรับ 4K/8K แบบลื่นไหล

ตามข้อมูลจากตารางหลายคนอาจจะสงสัยว่าทำไม Tensor Core ใน RTX 20 จึงเป็น Gen 2 ไม่ใช่ Gen 1 ทั้งนี้เป็นเพราะว่าก่อนที่จะมีการเปิดตัว GeForce RTX ทาง NVIDIA ได้มีการเปิดตัว NVIDIA Volta (V100) ซึ่งเป็นกราฟิกชิปสำหรับตลาดประมวลผลข้อมูลที่มี CUDA Core + Tensor Core ไปก่อนแล้วในช่วงปี 2017 และในระหว่างนั้น NVIDIA ก็ได้มีการปรับปรุง Tensor Core ให้มีประสิทธิภาพดีขึ้น พอถึงปี 2018 ที่ RTX 20 เปิดตัวทาง NVIDIA จึงนำ Tensor Core รุ่น 2 มาใส่ด้วยเลย นั่นเองครับ

และถ้าใครสนใจเรื่องเทคนิคแบบเฉพาะเจาะจงพวกจำนวน CUDA Core, Tensor Core และ RT Core ก็มาดูตารางเปรียบเทียบกราฟิกรุ่นเรือธงในการเปิดตัวของ RTX 20, RTX 30 และ RTX 40 กันอีกสักนิดครบ

Graphics CardGeForce RTX 2080 TiGeForce RTX 3090 TiGeForce RTX 4090
ArchitectureTuringAmpereAda Lovelace
CUDA Cores43521075216384
GPCs6711
TPCs344264
SMs6884128
GPU Boost Clock (MHz)163518602520
FP32 (TFLOPS)14.24082.6
Tensor Cores544 (2nd Gen)336 (3rd Gen)512 (4th Gen)
Tensor TFLOPS (FP8)N/AN/A660.6/1321.2
RT Cores68 (1st Gen)84 (2nd Gen)128 (3rd Gen)
RT TFLOPS42.978.1191
Texture Units272336512
Texture Fill Rate444.76251290.2
ROPS88112176
Pixel Fill Rate143.9208.3443.5
Memory Size and Type11 GB GDDR624 GB GDDR6X24 GB GDDR6X
Memory Clock (Data Rate)14 Gbps21 Gbps21 Gbps
Memory Bandwidth616 GB/sec1008 GB/sec1008 GB/sec
L1 Cache/Shared Memory6528 KB10752 KB16384 KB
L2 Cache5632 KB6144 KB73728 KB
TGP260 W450 W450 W
Transistor Count18.6 Billion28.3 Billion76.3 Billion
Die Size754 mm²628.4 mm²608.5 mm²
Manufacturing ProcessTSMC 12 nm FFN (FinFET NVIDIA)Samsung 8 nm 8N NVIDIA Custom ProcessTSMC 4N NVIDIA Custom Process

อธิบายรายละเอียดหัวข้อในตาราง:

  • CUDA Cores: หน่วยประมวลผลแบบขนานในกราฟิกชิปหรือ GPU ที่ใช้สำหรับการคำนวณทั่วไปถือว่าเป็นหน่วยที่ย่อยที่สุด
  • GPCs (Graphics Processing Clusters): เกิดจากการรวมกลุ่มของ TPC ถือเป็นชุดประมวลผลที่ใหญ่ที่สุดใน GPU
  • TPCs (Texture Processing Clusters): เกิดจากการรวมกลุ่มของ SMs
  • SMs (Streaming Multiprocessors): หน่วยประมวลผลหลักในสถาปัตยกรรมเกิดจากการรวมกลุ่มของ CUDA Core
  • GPU Boost Clock: ความเร็วสูงสุดที่ GPU สามารถทำงานได้ในสภาวะปกติ
  • FP32 TFLOPS: ความสามารถในการคำนวณจุดทศนิยมแบบ 32 บิตต่อวินาที (ล้านล้านครั้ง)
  • Tensor Cores: หน่วยประมวลผลพิเศษสำหรับการเรียนรู้ของเครื่องและ AI
  • Tensor TFLOPS (FP8): ประสิทธิภาพของ Tensor Cores ในการคำนวณจุดทศนิยม 8 บิต
  • RT Cores: หน่วยประมวลผลพิเศษสำหรับ ray tracing
  • RT TFLOPS: ประสิทธิภาพของ RT Cores
  • Texture Units: หน่วยจัดการเท็กซ์เจอร์ในการ์ดจอ
  • Texture Fill Rate: อัตราการเติมเท็กซ์เจอร์ต่อวินาที
  • ROPS (Render Output Units): หน่วยประมวลผลภาพสุดท้ายก่อนแสดงผล
  • Pixel Fill Rate: อัตราการเติมพิกเซลต่อวินาที
  • Memory Size and Type: ขนาดและประเภทของหน่วยความจำในการ์ดจอ
  • Memory Clock (Data Rate): ความเร็วในการอ่าน/เขียนข้อมูลของหน่วยความจำ
  • Memory Bandwidth: ปริมาณข้อมูลที่สามารถส่งผ่านหน่วยความจำต่อวินาที
  • L1 Cache/Shared Memory: หน่วยความจำแคชความเร็วสูง L1 และหน่วยความจำร่วม
  • L2 Cache: หน่วยความจำแคชความเร็วสูง L2 
  • TGP (Total Graphics Power): กำลังไฟฟ้าที่การ์ดจอใช้โดยรวม
  • Transistor Count: จำนวนทรานซิสเตอร์บน GPU
  • Die Size: ขนาดพื้นที่ของชิป GPU

Chapter 2 : กายวิภาคการ์ดจอ ในการ์ดจอประกอบไปด้วยอะไรบ้าง และศัพท์เทคนิคของการ์ดจอ

คําศัพท์ของการ์ดจอที่ควรรู้ในการอ่านสเปคของการ์ดจอ

การอ่านสเปคของการ์ดจอ NVIDIA มักจะมีคำศัพท์เฉพาะทางเทคนิคหลายคำที่อธิบายคุณสมบัติและความสามารถของการ์ดจอ ลองมาดูความหมายของคำศัพท์แต่ละคำกัน:

CUDA Cores: CUDA Cores เป็นหน่วยการประมวลผลที่ช่วยให้การ์ดจอสามารถทำงานแบบขนานกันได้อย่างมีประสิทธิภาพ โดยเฉพาะในการประมวลผลกราฟิก 3D, การเรนเดอร์, และการคำนวณอื่นๆ เช่น Deep Learning

Shader Cores: Shader Cores เป็นส่วนหนึ่งของการประมวลผลภาพที่ใช้ในการคำนวณแสงและเงา ช่วยทำให้ภาพมีความสมจริงมากขึ้นในการประมวลผล 3D

Ray Tracing Cores: เป็นหน่วยประมวลผลเฉพาะสำหรับการทำ Ray Tracing ซึ่งเป็นเทคนิคที่ใช้ในการจำลองการสะท้อนและการกระจายของแสง ทำให้ภาพในเกมและกราฟิกมีความสมจริงมากยิ่งขึ้น

Tensor Cores (AI): Tensor Cores เป็นหน่วยการประมวลผลที่ออกแบบมาเพื่อการคำนวณเชิงลึก (Deep Learning) และการเร่งความเร็วของ AI โดยเฉพาะ เช่น NVIDIA DLSS (Deep Learning Super Sampling) ซึ่งใช้ AI เพื่อเพิ่มประสิทธิภาพกราฟิก

Boost Clock (GHz): ความเร็วสูงสุดของการ์ดจอในหน่วย GHz ที่สามารถทำได้เมื่อทำงานหนักๆ เช่น การเล่นเกมหรือการเรนเดอร์กราฟิก

 Base Clock (GHz):  ความเร็วพื้นฐานที่การ์ดจอทำงานในสถานการณ์ปกติ ซึ่งมักจะต่ำกว่า Boost Clock

Memory Specs: ข้อมูลเฉพาะเกี่ยวกับหน่วยความจำของการ์ดจอ รวมถึงประเภท ขนาด และประสิทธิภาพของหน่วยความจำ

Standard Memory Config: ขนาดของหน่วยความจำมาตรฐานของกราฟิกชิปที่รองรับ เช่น 8GB, 16GB

Memory Interface Width: ความกว้างของบัสหน่วยความจำ ซึ่งบอกถึงความสามารถในการส่งข้อมูลระหว่างหน่วยความจำและ GPU (ตัวอย่างเช่น 256-bit)

Maximum Digital Resolution: ความละเอียดสูงสุดที่การ์ดจอสามารถรองรับได้เมื่อเชื่อมต่อกับหน้าจอผ่านพอร์ตดิจิตอล

Standard Display Connectors: พอร์ตที่การ์ดจอมีสำหรับเชื่อมต่อกับจอแสดงผล เช่น HDMI, DisplayPort

Multi Monitor: ความสามารถของการ์ดจอในการเชื่อมต่อกับจอแสดงผลหลายจอพร้อมกัน

HDCP: ย่อมาจาก High-bandwidth Digital Content Protection เทคโนโลยีสำหรับป้องกันการละเมิดลิขสิทธิ์เนื้อหาที่สตรีมผ่านการเชื่อมต่อดิจิทัล เช่น HDMI

Ray Tracing: การจำลองการทำงานของแสงแบบสมจริงในเกมหรือภาพยนตร์ โดยจำลองการสะท้อนและการหักเหของแสง

NVIDIA DLSS (Deep Learning Super Sampling): เทคโนโลยีที่ใช้ AI เพื่อขยายภาพจากความละเอียดต่ำเป็นความละเอียดสูง ทำให้ได้ภาพที่คมชัดโดยไม่ต้องใช้พลังงานการ์ดจอมาก

NVIDIA Encoder (NVENC): ตัวเข้ารหัสฮาร์ดแวร์ที่ใช้ในการแปลงหรือบันทึกวิดีโอ ซึ่งช่วยลดภาระของ CPU

NVIDIA Decoder (NVDEC): ตัวถอดรหัสฮาร์ดแวร์ที่ใช้ในการประมวลผลวิดีโอที่เล่นบนหน้าจอ ช่วยลดการใช้งาน CPU ในการเล่นวิดีโอความละเอียดสูง

AV1 Encode: ความสามารถในการเข้ารหัสวิดีโอในรูปแบบ AV1 ซึ่งเป็นฟอร์แมตการบีบอัดวิดีโอที่มีประสิทธิภาพสูงและบันทึกวิดีโอในขนาดไฟล์ที่เล็กลง

AV1 Decode: ความสามารถในการถอดรหัสวิดีโอ AV1 เพื่อเล่นวิดีโอที่ถูกบีบอัดในรูปแบบนี

 Maximum GPU Temperature: อุณหภูมิสูงสุดที่การ์ดจอสามารถทำงานได้โดยไม่เกิดความเสียหาย

Idle Power (W): พลังงานที่ใช้เมื่อการ์ดจออยู่ในสถานะพักหรือตอนที่ไม่ได้ทำงานหนัก

Video Playback Power (W): พลังงานที่ใช้เมื่อการ์ดจอกำลังเล่นวิดีโอ

Average Gaming Power (W): พลังงานเฉลี่ยที่ใช้เมื่อการ์ดจอกำลังทำงานหนักในขณะเล่นเกม

Total Graphics Power (W): TGP ปริมาณพลังงานทั้งหมดที่การ์ดจอต้องการเมื่อทำงานในภาระสูงสุด

Required System Power (W): ปริมาณพลังงานที่ระบบต้องการทั้งหมดเมื่อรวมการ์ดจอและอุปกรณ์อื่นๆ ซึ่งจะเป็นการแนะนำขนาดของพาวเวอร์ซัพพลายในระดับเริ่มต้นที่เหมาะสมต่อการใช้การ์ดจอรุ่นนั้น ๆ 

Required Power Connectors:  บอกจำนวนและประเภทของขั้วต่อพลังงานที่ต้องใช้ในการจ่ายไฟให้กับการ์ดจอ

คำศัพท์ของคุณสมบัติในการ์ดจอ NVIDIA RTX 40 Series ที่เราพบได้บ่อยในการอ่านสเปค

NVIDIA Reflex: ลดค่า latency (ความหน่วง) ของระบบให้ต่ำที่สุด เหมาะสำหรับการเล่นเกมที่ต้องการความแม่นยำสูง

NVIDIA Broadcast: ซอฟต์แวร์ของ NVIDAI ที่ช่วยปรับปรุงคุณภาพเสียงและวิดีโอสำหรับการสตรีมมิงและวิดีโอคอล ใช้ AI ในการกำจัดเสียงรบกวนและเบลอพื้นหลัง

PCI Express Gen 4: อินเทอร์เฟซ PCI Express รุ่นที่ 4 ที่ให้แบนด์วิดท์สูงขึ้นเมื่อเทียบกับรุ่นก่อนหน้า ช่วยเพิ่มความเร็วในการส่งข้อมูลระหว่างการ์ดจอกับเมนบอร์ด

Resizable BAR: ฟีเจอร์ที่ช่วยให้ CPU เข้าถึงหน่วยความจำของ GPU ได้มากขึ้นพร้อมกัน ซึ่งช่วยเพิ่มประสิทธิภาพในบางเกม

NVIDIA GeForce Experience: ซอฟต์แวร์ที่ช่วยจัดการการตั้งค่ากราฟิกและอัปเดตไดรเวอร์อัตโนมัติ นอกจากนี้ยังมีฟีเจอร์สำหรับการบันทึกวิดีโอและภาพหน้าจอขณะเล่นเกม

NVIDIA Ansel: ฟีเจอร์สำหรับถ่ายภาพในเกมด้วยคุณภาพระดับสูง สามารถปรับมุมมองและความละเอียดได้

NVIDIA FreeStyle: ช่วยให้ผู้ใช้สามารถปรับแต่งฟิลเตอร์สีและเอฟเฟกต์ของภาพในเกมแบบเรียลไทม์

NVIDIA ShadowPlay: ฟีเจอร์สำหรับบันทึกวิดีโอและภาพหน้าจอขณะเล่นเกม โดยใช้ทรัพยากรระบบน้อย

NVIDIA Highlights: บันทึกช่วงเวลาสำคัญในเกมอัตโนมัติ เช่น การฆ่าในเกม FPS หรือความสำเร็จต่าง ๆ

NVIDIA G-SYNC: เทคโนโลยีที่ช่วยให้การแสดงผลบนหน้าจอมีความราบรื่น ลดการกระตุกและฉีกขาดของภาพ โดยซิงโครไนซ์การรีเฟรชเรตของจอภาพกับเฟรมเรตของเกม

Game Ready Drivers: ไดรเวอร์ที่ปรับแต่งมาเพื่อเกมล่าสุด ช่วยให้การเล่นเกมมีประสิทธิภาพสูงสุด

NVIDIA Studio Drivers:: ไดรเวอร์ที่ออกแบบมาเพื่อการทำงานด้านการสร้างคอนเทนต์ เช่น การตัดต่อวิดีโอ การออกแบบกราฟิก

NVIDIA Omniverse: แพลตฟอร์มที่ใช้สำหรับการสร้างและการจำลอง 3D แบบร่วมมือกันในเวลาเดียวกัน สามารถใช้ในการออกแบบ โมเดล และแอนิเมชัน

Microsoft DirectX 12 Ultimate: API ที่ช่วยให้การ์ดจอสามารถใช้ฟีเจอร์กราฟิกล่าสุด เช่น Ray Tracing เพื่อทำให้ภาพกราฟิกสมจริงมากขึ้น

NVIDIA GPU Boost: เทคโนโลยีที่ช่วยให้ GPU ปรับความเร็วสัญญาณนาฬิกาอัตโนมัติเพื่อเพิ่มประสิทธิภาพขณะใช้งานหนัก

Vulkan RT API, OpenGL 4.6: API ที่ช่วยในการพัฒนาเกมและซอฟต์แวร์กราฟิก OpenGL เป็น API แบบดั้งเดิมที่เน้นการเรนเดอร์กราฟิก ส่วน Vulkan เป็น API ที่ใหม่กว่า มีประสิทธิภาพสูงกว่าในด้านการประมวลผล

VR Ready: การ์ดจอที่รองรับการใช้งานกับ Virtual Reality (VR) ซึ่งต้องมีความสามารถในการเรนเดอร์กราฟิกที่รวดเร็วและลื่นไหล

Chapter 3 : การ์ดจอกับอัตราการบริโภคไฟเลี้ยง คอนเน็คเตอร์ไฟเลี้ยงแบบต่างๆ

Power Connector ของการ์ดจอมีหลากหลายแบบ ซึ่งถูกออกแบบมาเพื่อส่งพลังงานให้เพียงพอต่อการทำงานของการ์ดที่มีความต้องการพลังงานแตกต่างกันไป โดยพอร์ตเชื่อมต่อนี้จะถูกเชื่อมกับ Power Supply Unit (PSU) ของคอมพิวเตอร์ สำหรับ Power Connector ที่ใช้กับการ์ดจอในยุคปัจจุบันก็จะประกอบไปด้วย

6-Pin PCIe Connector

  • กำลังไฟ: สามารถจ่ายไฟได้สูงสุดประมาณ 75 วัตต์
  • การใช้งาน: ใช้กับการ์ดจอที่มีความต้องการพลังงานไม่สูงมาก การ์ดจอรุ่นเล็กถึงระดับกลางในสมัยก่อนมักใช้คอนเนคเตอร์แบบ 6-Pin
  • ลักษณะ: ขนาด 6-Pin (6 ขา) ซึ่งแต่ละขาจะทำหน้าที่ส่งพลังงานผ่านไฟเลี้ยง 12 โวลต์จาก PSU
  • ตัวอย่างการ์ดจอ: GTX 1650 Super

8-Pin PCIe Connector

  • กำลังไฟ: สามารถจ่ายไฟได้สูงสุดประมาณ 150 วัตต์
  • การใช้งาน: การ์ดจอที่มีความต้องการพลังงานสูงขึ้น เช่นการ์ดจอระดับกลางถึงระดับสูง ในบางรุ่นที่ต้องการพลังงานมากกว่า PSU จะใช้ 8-Pin ควบคู่กับการรับไฟจาก สล็อต PCIe ที่ให้พลังงานอีก 75 วัตต์
  • ลักษณะ: มี 8 ขา และออกแบบมาเพื่อส่งพลังงานมากขึ้นกว่า 6-Pin
  • ตัวอย่างการใช้งาน: การ์ดจอเช่น RTX 3060, RTX 3070

*** ในบางกรณีการ์ดจอบางรุ่นก็จะใช้ 8-Pin สองชุด หรือใช้ 8-Pin + 6-Pin เพื่อเพิ่มเสถียรภาพในการจ่ายไฟให้กับการ์ดจอ ขึ้นอยู่กับผู้ผลิต ***

12-Pin PCIe Connector

  • กำลังไฟ: สามารถจ่ายไฟได้สูงสุดประมาณ 500-600 วัตต์ ขึ้นอยู่กับมาตรฐานของตัว PSU และสายไฟ
  • การใช้งาน: เป็นคอนเน็คเตอร์จ่ายไฟแบบใหม่ที่เริ่มใช้ในการ์ดจอ RTX 30 ซีรีส์ เช่น NVIDIA RTX 30 Founders Edition ขึ้นไป ซึ่งต้องการพลังงานสูงมาก การ์ดจอเหล่านี้ใช้ 12-Pin เพื่อความสะดวกและปลอดภัยในการจ่ายพลังงานมากกว่าเดิม
  • ลักษณะ: มี 12 ขา ขนาดเล็กกว่า 6-Pin และ 8-Pin โดยรวมพลังงานที่จ่ายจาก PSU เข้ามาไว้ในคอนเนคเตอร์ตัวเดียว แต่ PSU ที่มีพอร์ต 12-Pin โดยตรงอาจจะยังไม่แพร่หลายนัก จึงใช้ ตัวแปลง จาก 6-Pin หรือ 8-Pin มารวมกันแทน
  • ตัวอย่างการใช้งาน: การ์ดจอเช่น NVIDIA RTX 3080 Founders Edition, RTX 3090

16-Pin (12VHPWR) PCIe Connector

  • กำลังไฟ: จ่ายไฟได้สูงสุดถึง 600 วัตต์
  • การใช้งาน: ใช้ในการ์ดจอรุ่นใหม่ล่าสุดเช่น RTX 4090 ซึ่งต้องการพลังงานสูงกว่า 400 วัตต์ขึ้นไป มีการออกแบบมาตรฐานใหม่ ATX 3.0 สำหรับ PSU เพื่อรองรับการ์ดจอที่ต้องการพลังงานสูง
  • ลักษณะ: มี 12 ขาใหญ่ และมี 4 ขาเล็ก สำหรับการสื่อสารข้อมูลและควบคุมกำลังไฟตามความต้องการของการ์ดจอ ทำให้การ์ดจอสามารถจัดการพลังงานได้อย่างมีประสิทธิภาพมากขึ้น
  • ตัวอย่างการ์ดจอ: NVIDIA RTX 4080, RTX 4090

16-Pin (12V-2×6) PCIe Connector

  • กำลังไฟ: จ่ายไฟได้สูงสุดถึง 675 วัตต์
  • การใช้งาน: ใช้ในการ์ดจอรุ่นใหม่ล่าสุดเช่น RTX 40 Super โดยคอนเน็คเตอร์แบบ 12V-2X6 นี้จะมาพร้อมกับพาวเวอร์ซัพพลายที่รองรับมาตรฐาน ATX 3.1
  • ลักษณะ:คอนเน็คเตอร์ 12V-2×6 มีลักษณะทางกายภาพ 99% เหมือนกับ 12VHPWR โดยมีความแตกต่างเล็กน้อยตรงหมุดตัวล็อกสั้นกว่า 0.1 มม. และขั้วต่อตัวนําไฟฟ้ายาวขึ้น 0.15 มม. แม้จะเป็นการเปลี่ยนแปลงเล็กน้อย แต่ช่วยให้การต่อสายพาวเวอร์ของการ์ดจอรุ่นใหม่มีความปลอดภัยมากยิ่งขึ้น
  • ตัวอย่างการ์ดจอ: NVIDIA RTX 4080 Super

PCIe Slot Power (ไม่ต้องใช้ Connector เพิ่ม)

  • กำลังไฟ: ให้พลังงานสูงสุดที่ 75 วัตต์ จากสล็อต PCIe บนเมนบอร์ด
  • การใช้งาน: ใช้สำหรับการ์ดจอที่ไม่ต้องการพลังงานสูงมาก เช่น การ์ดจอรุ่นเล็กหรือรุ่นประหยัดไฟ โดยการ์ดเหล่านี้จะใช้ไฟจากสล็อต PCIe โดยตรงโดยไม่ต้องเชื่อมต่อกับ Power Connector เพิ่ม
  • ตัวอย่างการ์ดจอ: GTX 1650, RTX 3050 บางรุ่น

การที่ผู้ผลิตการ์ดจอจะเลือกใช้คอนเน็คเตอร์แบบใดนั้นโดยมากแล้วทางผู้ผลิตการ์ดจอจะดูมาตรฐานอ้างอิงจากทาง NVIDIA โดยตรง แต่บางครั้งผู้ผลิตก็จะมีการปรับเปลี่ยนไปตามความเหมาะสมเพื่อให้เกิดการใช้งานที่ง่ายและสะดวกกับผู้ใช้ก็มี เช่นการ์ดจอต้นแบบจาก NVIDIA จะเลือกใช้คอนเน็คเตอร์แบบ 12-Pin แบบใหม่ แต่ทางผู้ผลิตการ์ดจอเห็นว่าสามารถใช้ 8-Pin+8-Pin ทดแทนได้ ทำให้ไม่ต้องใช้สายแปลงคอนเน็ตเตอร์หรือไม่ต้องเปลี่ยนพาวเวอร์ซัพพลายใหม่ก็สามารถทำได้เช่นกัน

การเลือกใช้ Power Connector ขึ้นอยู่กับความต้องการพลังงานของการ์ดจอและความสามารถในการจ่ายไฟของ PSU หากการ์ดจอต้องการพลังงานมาก ควรเลือก PSU ที่มีหัวต่อที่เพียงพอต่อการ์ดจอและมีกำลังวัตต์เพียงพอเพื่อป้องกันปัญหาการ์ดจอทำงานไม่เต็มประสิทธิภาพหรือการปิดตัวของระบบ

แนะนำพาวเวอร์ซัพพลายสำหรับ RTX 40 Series

  • RTX 4090: แนะนำ PSU ขนาด 850W เป็นขั้นต่ำ โดยการ์ดนี้ใช้ไฟรวมประมาณ 450W และอาจสูงสุดถึง 600W หากใช้งานร่วมกับ CPU ระดับสูง เช่น i9 หรือ Ryzen 9 ควรเลือก PSU ขนาด 1000W เพื่อความปลอดภัย
  • RTX 4080: แนะนำ PSU ขนาด 750W เนื่องจากการ์ดนี้มีอัตราการใช้ไฟรวมที่ประมาณ 320W
  • RTX 4070 Ti: ใช้ไฟรวมประมาณ 285W แนะนำ PSU ขนาด 700W
  • RTX 4070: ควรใช้ PSU ขนาด 600W แต่แนะนำให้เลือก PSU ขนาด 700W เพื่อความมั่นใจ
  • RTX 4060 Ti: การ์ดนี้ใช้ไฟรวมประมาณ 160W แนะนำ PSU ขนาด 500W

Chapter 4 : การ์ดจอกับชุดระบายความร้อน 

การ์ดจอประสิทธิภาพสูงมักจะมาพร้อมกับฮีตซิงค์ขนาดใหญ่แบบ 3 พัดลม

การเลือกใช้การ์ดจอที่มีชุดระบายความร้อนแบบ 1 พัดลม, 2 พัดลม, 3 พัดลม หรือแบบระบายความร้อนด้วยน้ำ ขึ้นอยู่กับหลายปัจจัยที่เกี่ยวข้องกับ เช่น ประสิทธิภาพ, ขนาด, และความต้องการในการใช้งานของผู้ใช้ โดยมีข้อพิจารณาดังนี้:

  • การ์ดจอแบบ 1 พัดลม: ส่วนใหญ่แล้วจะใช้งานอยู่การ์ดจอรุ่นประหยัดพลังงานเป็นหลัก และมักจะพบได้บนการ์ดจอที่ไม่ต้องต่อไฟเพิ่ม
  • การ์ดจอแบบ 2 พัดลม: เหมาะสำหรับการใช้งานทั่วไปและเกมในระดับกลางถึงสูง โดยมีความสามารถในการระบายความร้อนที่เพียงพอสำหรับการใช้งานปกติ แต่ในกรณีที่ต้องการประสิทธิภาพสูงสุดหรือเล่นเกมหนักๆ อาจไม่เพียงพอ
  • การ์ดจอแบบ 3 พัดลม: มักจะมีประสิทธิภาพในการระบายความร้อนที่ดีกว่า สามารถจัดการกับอุณหภูมิได้ดีขึ้นเมื่อทำงานหนัก เช่น การเล่นเกมที่มีกราฟิกสูงหรือการเรนเดอร์วิดีโอ
GALAX GeForce RTX 4090 Hydro ระบายความร้อนด้วยน้ำ
  • การ์ดจอแบบระบายความร้อนด้วยน้ำ: ให้ประสิทธิภาพในการระบายความร้อนสูงสุด เหมาะสำหรับผู้ที่ต้องการโอเวอร์คล็อกการ์ดจอหรือทำงานหนัก ๆ เป็นเวลานาน แต่จะต้องมีการติดตั้งระบบน้ำและดูแลรักษาเพิ่มเติม แต่ถ้าเป็นชุดระบายความร้อนด้วยน้ำแบบสำเร็จรูป (AIO) ที่มาพร้อมกับตัวกราฟิกการ์ดเลยก็จะใช้งานง่ายกว่าแทบไม่ต้องดูแลรักษา อย่างเช่นการ์ดจอ GALAX GeForce RTX 4090 Hydro เป็นการ์ดจอที่ใช้การระบายความร้อนด้วยน้ำแบบพร้อมติดตั้งและใช้งานได้ตั้งแต่แกะกล่อง
  • เคสขนาดเล็ก (SFF): หากคุณมีเคสขนาดเล็ก การเลือกการ์ดจอแบบ 2 พัดลมหรือแบบระบายความร้อนด้วยน้ำที่มีขนาดกะทัดรัดจะเหมาะสมกว่า เนื่องจากการ์ดจอขนาดใหญ่หรือแบบ 3 พัดลมอาจไม่สามารถติดตั้งได้ (ดูรายละเอียดใน NVIDIA SFF)
  • เคสขนาดใหญ่: หากคุณมีพื้นที่มาก การเลือกใช้การ์ดจอแบบ 3 พัดลมหรือระบบน้ำจะช่วยให้ได้ประสิทธิภาพสูงสุด

 NVIDIA SFF (Small Form Factor) ทางเลือกสำหรับคนประกอบคอมไซส์เล็ก

NVIDIA ได้เปิดตัวโครงการการ์ดจอ GeForce แบบ SFF-Ready ซึ่งเป็นโครงการใหม่ที่มุ่งเน้นการเพิ่มความเข้ากันได้ระหว่างการ์ดกราฟิกประสิทธิภาพสูงกับเคสคอมพิวเตอร์ขนาดเล็ก (SFF) โครงการนี้ตอบสนองต่อความต้องการที่เพิ่มขึ้นสำหรับระบบเกมที่มีขนาดกะทัดรัด ซึ่งสามารถให้ประสิทธิภาพที่ทรงพลังในขณะที่ยังคงมีขนาดเล็ก

คุณสมบัติหลักของการ์ด SFF-Ready

  1. ขนาดที่กำหนด: การ์ดจอ SFF-Ready ได้รับการออกแบบด้วยขนาดเฉพาะเพื่อให้สามารถติดตั้งได้อย่างสะดวกในเคส SFF ขนาดสูงสุดรวมถึง:
    • ความสูง: 151 มม. (รวมถึงรัศมีการงอของสายไฟ)
    • ความยาว: 304 มม.
    • ความลึก: สูงสุด 50 มม. หรือ 2.5 สล็อต
  2. ความเข้ากันได้: โครงการนี้ช่วยให้กระบวนการเลือกอุปกรณ์สำหรับผู้ประกอบพีซีทำได้ง่ายขึ้น โดยมีการติดป้ายระบุว่าเป็นการ์ดจอและเคสที่เข้ากันได้ การ์ดที่ตรงตามเกณฑ์ SFF-Ready จะได้รับเครื่องหมาย “SFF-Ready Enthusiast GeForce Cards” ขณะที่เคสที่สามารถรองรับการ์ดเหล่านี้จะได้รับเครื่องหมายว่า “Compatible with SFF-Ready Enthusiast GeForce Cards” ระบบการติดป้ายนี้ช่วยให้ผู้ใช้สามารถระบุส่วนประกอบที่ทำงานร่วมกันได้อย่างง่ายดายโดยไม่ต้องค้นคว้าข้อมูลมากนัก
  3. ผลกระทบต่อตลาด: การออกมาเคลื่อนไหวของ NVIDIA สามารถไปกระตุ้นให้ผู้ผลิตสร้างโซลูชันกราฟิกขนาดกะทัดรัดมากขึ้น ซึ่งไปลดช่องว่างในตลาดระหว่าการ์ดจอที่มีขนาดใหญ่กับการ์ดจอขนาดเล็กในปัจจุบัน ตอนนี้การ์ดจอจากผู้ผลิตหลายรายรวมถึง GALAX เช่นในรุ่น GALAX GeForce RTX 4070 SUPER 1-Click OC 2X และอื่น ๆ ที่เป็นไปตามแนวทางนี้
  4. การมีส่วนร่วมกับชุมชน: โครงการนี้ยังถือเป็นวิธีหนึ่งในการมีส่วนร่วมกับชุมชน SFF อย่างมีประสิทธิภาพ โดยให้ข้อกำหนดและแนวทางที่ชัดเจนสำหรับผู้ที่ชื่นชอบในการสร้างระบบที่มีประสิทธิภาพสูงแต่มีขนาดกะทัดรัด NVIDIA ตั้งเป้าที่จะทำให้ผู้ประกอบพีซีมือใหม่และผู้ประกอบพีซีที่มีประสบการณ์สามารถประกอบพีซีที่มีความซับซ้อนของความเข้ากันได้กับส่วนประกอบในระบบ SFF ได้ง่ายขึ้น

การเปิดตัวการ์ด GeForce แบบ SFF-Ready Enthusiast ถือเป็นก้าวสำคัญในการรองรับความต้องการของเกมเมอร์และผู้ที่ชื่นชอบประสิทธิภาพสามารถประกอบพีซีขนาดเล็กได้โดยไม่ต้องกังวลเรื่องการสูญเสียประสิทธิภาพ

Chapter 5 : RTX AI PC เข้าสู่ยุค AI ด้วยประสิทธิภาพที่เหนือกว่า

ตอนนี้ในทุกอุตสาหกรรมกำลังถูกผลักดันให้ก้าวหน้าด้วยเทคโนโลยี AI และแวดวงพีซีสายตรงเรื่องเทคโนโลยีอย่างพวกเราจะหลุดรอดไปได้อย่างไร ตั้งแต่ช่วงต้นปีที่ผ่านมาไมโครซอฟท์ผู้พัฒนา Windows ที่เราใช้กันอยู่ทุกวันก็ได้เริ่มการผลักดันโครงการที่ชื่อว่า AI PC ออกมาเพื่อกระตุ้นตลาดและความเปลี่ยนแปลงของเทคโนโลยี

AI PC ของไมโครซอฟท์นั้นได้มุ่งเน้นไปที่ตลาดของโน้ตบุ๊กก่อนเพราะตอนนี้ซีพียูในกลุ่มของโน้ตบุ๊กมักจะมาพร้อมหน่วยประมวลผลแบบใหม่ที่เรียกว่า NPU เข้ามาเสริมการทำงานร่วมกับ CPU และ GPU ทำให้หลายคนกังวลว่าแล้วแบบนี้คนที่ใช้เครื่องพีซีเครื่องเดสก์ท็อปรวมไปถึงซีพียูรุ่นก่อนหรือแม้รุ่นปัจจุบันที่ไม่มี NPU จะทำอย่างไร 

คำตอบของเรื่องนี้ก็คือไม่ต้องตกใจครับแค่คุณใช้งานการ์ดจอ GeForce RTX 40 Series (รวมถึง GeForce RTX 20, GeForce RTX 30) เพียงเท่านี้พีซีธรรมดาของคุณก็กลายเป็น AI PC ได้แล้ว แถมยังมีประสิทธิภาพในการทำงานที่เหนือกว่า NPU ที่อยู่ในซีพียูของกลุ่มโน้ตบุ๊กด้วย เพราะ NPU นั้นเกิดมาเพื่อการใช้พลังงานต่ำในการประมวลผลด้าน AI ซึ่งเป็นการแก้ปัญหาของการประมวลผล AI บนอุปกรณ์พกพาที่ต้องใช้แบตเตอรีครับ ส่วนเราชาวพีซีที่ไม่ต้องกังวลเรื่องแบตเตอรีก็สามารถเต็มอิ่มกับเรื่อง AI โดยใช้การ์ดจอ GeForce RTX Series ได้เลย 

เพื่อทำความเข้าใจและลดข้อกังวลด้าน AI ของผู้ใช้ทาง NVIDIA จึงได้เปิดตัวแคมเปญ RTX AI PC ขึ้นมา เพื่อบอกให้กับผู้ใช้ได้ทราบว่าการ์ดจอของพวกเขาคือหน่วยประมวลผลด้าน AI ที่ทรงพลังอย่างมาก แม้ว่าคุณจะไม่ได้ใช้ซีพียูรุ่นล่าสุด ถ้าพีซีของคุณสามารถติดตั้งและใช้งานการ์ดจอ GeForce RTX รุ่นใดก็ได้ เพียงเท่านี้คุณก็เป็น RTX AI PC ได้แล้ว

ก็มาย้ำกันอีกสักรอบว่าภายในตัวกราฟิกชิป GeForce RTX ไม่ว่าจะเป็น GeForce RTX 20, GeForce RTX 30 และ GeForce RTX 40 Series จะมีหน่วยประมวลที่ชื่อว่า Tensor Core มาด้วย ซึ่งทำหน้าที่ในการประมวลผลด้าน AI โดยเฉพาะ และยังทำงานควบคู่กับ CUDA Core แบบใหม่ ทำให้ประสิทธิภาพด้าน AI ยิ่งสูงขึ้นไปอีก และว่ากันตามตรง NVIDIA นี่แหละที่เป็นผู้เปิดโลก AI ให้กับพีซีและอุตสาหกรรมคอมพิวเตอร์ด้วยซ้ำไป

RTX AI PC ตอนนี้ทำอะไรได้บ้าง

ตอนนี้การ์ดจอ RTX ของ NVIDIA สามารถรองรับแอปพลิเคชันสำหรับการทำงานทั่วไป แอปพลิเคชันในกลุ่มคอนเทนต์ครีเอเตอร์ แอปพลิเคชันในกลุ่มด้านการศึกษา รวมทั้งการสร้างโมเดล AI ใหม่ และเกมรวมแล้วมากกว่า 500 รายการ

ตัวอย่างการใช้งานแบบใกล้ตัวเราที่สุดคือการอัปสเกลของวิดีโอความละเอียดต่ำให้มีความละเอียดสูงและความคมชัดมากขึ้น และแน่นอนรวมไปถึงการแสดงผลในเกม และการเพิ่มเฟรมเรตอีกด้วย หรือถ้าใครอยากลองใช้งาน AI แบบใกล้ตัวอีกอย่างก็คือลองใช้แอป NVIDIA Broadcast และ NVIDIA ChatRTX

AI ในเกมจากการ์ดจอ GeForce RTX

สำหรับผู้ที่ใช้การ์ดจอ GeForce RTX ทุกรุ่นก็สามารถใช้งาน AI กับเกมต่าง ๆ ได้ในแบบที่บางครั้งไม่รู้ตัวด้วยซ้ำไป เช่นการตั้งค่าในเกมด้วย DLSS และ DLAA

  • NVIDIA DLSS หรือ Deep Learning Super Sampling คือเทคโนโลยีที่ใช้ปัญญาประดิษฐ์ (AI) เพื่อเพิ่มประสิทธิภาพในการเล่นเกม โดยเฉพาะอย่างยิ่งในด้านเฟรมเรต และคุณภาพของภาพ โดยหลักการทำงานคือ DLSS จะเรนเดอร์ภาพเกมที่ความละเอียดต่ำกว่าปกติซึ่งจะทำให้ได้เฟรมเรตที่สูงขึ้น จากนั้นใช้ AI เพื่อเพิ่มความละเอียดของภาพให้สูงขึ้น เช่น เรนเดอร์ด้วยความละเอียด 720p ทำให้เกิดเฟรมเรตที่สูง แล้วทำการอัปสเกลให้เป็น 1080p เป็นต้น ทำให้ได้ภาพที่สวยงามคมชัดขึ้น แม้จะเล่นเกมที่ความละเอียดสูงๆ ก็ตาม
  • NVIDIA DLAA หรือ Deep Learning Anti-Aliasing เป็นเทคโนโลยีที่ใช้ปัญญาประดิษฐ์ (AI) อีกหนึ่งรูปแบบที่ NVIDIA พัฒนาขึ้นมาหลังจากมี DLSS เทคนิคนี้ก็ใช้ปรับปรุงคุณภาพของภาพด้วยการลดรอยหยักของภาพในเกม ซึ่งแต่เดิมเราจะใช้เทคโนโลยี Anti Aliasing แบบธรรมดาทั่วไป แต่ DLAA นี้ถูกประมวลผลด้วย AI ซึ่งทำให้ภาพที่ได้ดูเรียบเนียนขึ้นในขณะที่ใช้พลังจากกราฟิกชิปลดลงช่วยให้กราฟิกชิปทุ่มกำลังไปประมวลผลเรื่องภาพและเฟรมเรตให้สูงขึ้นได้

นอกจากนี้ในอนาคตเกมที่รองรับการ์ดจอ GeForce RTX สามารถสร้างตัวละครที่เป็น NPC ในเกม แล้วให้มีบทสนทนาอย่างอิสระกับผู้เล่นได้ ทำให้การดำเนินเนื่องเรื่องในเกมมีความสนุกและคาดเดาได้ยากยิ่งขึ้น

โปรแกรม NVIDIA Broadcast ผู้ช่วย AI สำหรับสตรีมเมอร์

NVIDIA Broadcast เป็นแอปพลิเคชันที่ออกแบบมาเพื่อยกระดับคุณภาพเสียงและวิดีโอในการสตรีมมิ่ง การประชุมทางวิดีโอ และการแชทด้วยเสียง โดยใช้เทคโนโลยี AI เพื่อปรับปรุงประสบการณ์การใช้งานให้ดียิ่งขึ้น

ฟีเจอร์หลักของ NVIDIA Broadcast

  • การตัดเสียงรบกวน: ฟีเจอร์นี้ช่วยลดเสียงรบกวนที่ไม่พึงประสงค์จากไมโครโฟน เช่น เสียงพูดคุยหรือเสียงเครื่องจักร ทำให้เสียงของผู้ใช้ชัดเจนยิ่งขึ้นในระหว่างการสตรีมและการประชุม
  • การกำจัดภาพรบกวนในวิดีโอ: ช่วยลดภาพรบกวนที่เกิดขึ้นในสภาพแสงน้อย ทำให้ได้ภาพที่มีคุณภาพสูงขึ้น ซึ่งเป็นประโยชน์โดยเฉพาะสำหรับการใช้เว็บแคม
  • พื้นหลังเสมือนจริง: ผู้ใช้สามารถเปลี่ยนพื้นหลังในระหว่างการประชุมหรือการสตรีมได้อย่างง่ายดาย โดยไม่ต้องใช้ Green Screen
  • การจัดเฟรมภาพอัตโนมัติ: ฟีเจอร์นี้ช่วยให้กล้องสามารถติดตามผู้พูดและจัดเฟรมได้อย่างเหมาะสมโดยอัตโนมัติ
  • การใช้งานหลายเอฟเฟกต์พร้อมกัน: ผู้ใช้สามารถเปิดใช้งานเอฟเฟกต์หลายอย่างพร้อมกัน เช่น การตัดเสียงรบกวนและการกำจัดภาพรบกวน

ดาวน์โหลด NVIDIA Broadcast

โปรแกรม NVIDIA ChatRTX สร้าง ChatGPT ใช้งานในเครื่องของเรา

NVIDIA ChatRTX คือแอปพลิเคชันที่พัฒนาโดย NVIDIA เพื่อเป็นผู้ช่วย AI ที่ทำงานได้อย่างมีประสิทธิภาพบนเครื่องคอมพิวเตอร์ที่ใช้การ์ดจอ RTX โดยเฉพาะ โดยแอปนี้ใช้เทคโนโลยี Retrieval Augmented Generation (RAG) และ TensorRT LLM เพื่อนำเสนอฟีเจอร์การสนทนากับเอกสารและการค้นหาภาพผ่านเสียง

ฟีเจอร์หลักของ NVIDIA ChatRTX

  • การสนทนากับเอกสาร: ผู้ใช้สามารถสนทนาและถามคำถามเกี่ยวกับเอกสารต่าง ๆ เช่น ไฟล์ข้อความ PDF หรือภาพที่เก็บไว้ในเครื่องได้ โดยแอปจะทำการประมวลผลข้อมูลเหล่านี้เพื่อให้คำตอบที่เกี่ยวข้องและแม่นยำ
  • การค้นหาภาพด้วยเสียง: ฟีเจอร์นี้ช่วยให้ผู้ใช้สามารถค้นหาภาพในเครื่องได้โดยใช้เสียง ทำให้การเข้าถึงข้อมูลสะดวกยิ่งขึ้น
  • รองรับหลายโมเดล AI: ChatRTX รองรับโมเดล AI หลายตัว เช่น Mistral 7B และ Llama 2 7B ซึ่งผู้ใช้สามารถเลือกใช้ตามความต้องการ
  • ความเป็นส่วนตัว: แอปทำงานแบบออฟไลน์หลังจากติดตั้ง ทำให้ข้อมูลส่วนตัวของผู้ใช้ไม่ถูกส่งไปยังคลาวด์ ซึ่งเป็นข้อดีที่สำคัญสำหรับผู้ที่กังวลเรื่องความเป็นส่วนตัว
  • การใช้งานง่าย: แม้ว่าจะมีขนาดใหญ่และต้องการทรัพยากรค่อนข้างมาก แต่ ChatRTX มีอินเทอร์เฟซที่ใช้งานง่าย ช่วยให้ผู้ใช้สามารถตั้งค่าและเริ่มต้นใช้งานได้อย่างรวดเร็ว

ดาวน์โหลด ChatRTX

โปรแกรม NVIDIA Canvas วาดรูปสวยด้วย AI

NVIDIA Canvas เป็นแอปพลิเคชันที่ใช้เทคโนโลยี AI ในการเปลี่ยนการวาดภาพลงบนหน้าจอว่าง ๆ ด้วยแปรงแบบต่าง ๆ ที่โปรแกรมจัดเตรียมไว้ให้ เช่นแปรงสำหรับวาดน้ำ แปรงสำหรับวาดต้นไม้ แปรงสำหรับวาดท้องฟ้า โดยการวาดนั้นเราไม่จำเป็นต้องลงรายละเอียดอะไรเลย แค่ระบายเพื่อลงตำแหน่งของวัตถุต่าง ๆ ว่าจะให้แสดงอยู่ในตำแหน่งใด ที่เหลือก็เป็นหน้าที่ของ AI ในการสร้างภาพให้เราครับ สะดวกและง่ายมาก ๆ โดยเราสามารถนำไฟล์ที่ได้ไปใช้งานร่วมกับโปรแกรมแต่งรูปหรือโปรแกรมกราฟิกอื่น ๆ เพื่อแต่งเติมภาพได้ในภายหลัง

ดาวน์โหลด NVIDIA Canvas

นี่เป็นเพียงตัวอย่างบางส่วนของแอปพลิเคชันด้าน AI ที่ผู้ใช้การ์ดจอ GeForce RTX สามารถใช้งานได้แล้วจริง ๆ ในตอนนี้ โดยไม่ต้องรอให้ Windows อัปเดตเพื่อใช้ Copilot+ ด้วยซ้ำไป นอกจากนี้แอปพลิเคชันใหม่ ๆ หลายโปรแกรมทั้งโปรแกรมแต่งภาพ โปรแกรมตัดต่อวิดีโอ ที่มีการอัปเดตใหม่ตั้งแต่ช่วงต้นปีที่ผ่านมาก็สามารถนำการ์ดจอ GeForce RTX มาเร่งการประมวลผล AI ได้แล้วในแบบที่บางครั้งเราก็ไม่รู้ตัวด้วยซ้ำไป ดังนั้นใครที่กำลังใช้การ์ดจอ RTX อยู่ก็ไม่ต้องกังวลเรื่องการใช้งานด้าน AI อีกต่อไป และจงภูมิใจว่าเราเหนือกว่า AI PC ทั่วไปด้วย RTX AI PC ครับตัวด้วยซ้ำไป ดังนั้นใครที่กำลังใช้การ์ดจอ RTX อยู่ก็ไม่ต้องกังวลเรื่องการใช้งานด้าน AI อีกต่อไป และจงภูมิใจว่าเราเหนือกว่าด้วย RTX AI PC ครับ

Chapter 6 : ความแตกต่างของการ์ดจอในแต่ละรุ่น และความเหมาะสมในการเล่นเกม และราคาที่ต้องจ่าย

ในบทนี้เราจะมาพูดถึงรายละเอียดของตัวการ์ดจอจริง ๆ ที่วางจำหน่ายในท้องตลาดกันบ้างครับ โดยเราขอใช้การ์ดจอจากแบรนด์ GALAX เป็นข้อมูลอ้างอิงสำหรับการให้ข้อมูลในครั้งนี้นะครับ

  • GALAX GT730 LP 4GB DDR3 128Bit
  • GALAX GT1030 2GB GDDR5 64 Bit 3-Y
  • GALAX GTX1650 EX-1 CLICK OC PLUS 4GB GDDR6 128BIT
  • GALAX RTX 3050 6GB EX GDDR6 96BIT
  • GALAX RTX 3050 6GB LP White GDDR6 96BIT
  • GALAX RTX 4060 1- CLICK OC 2X V2 8GB GDDR6 128BIT
  • GALAX RTX 4060 EX 8GB GDDR6 128BIT
  • GALAX RTX 4060 EX WHITE 8GB GDDR6 128BIT
  • GALAX RTX 4060 TI 1-CLICK OC 8GB GDDR6 128BIT
  • GALAX RTX 4060 TI EX 8GB GDDR6 128BIT
  • GALAX RTX 4060 TI EX WHITE 8GB GDDR6 128BIT
  • GALAX RTX 4070 D6 1-CLICK OC 2X PCI-E 12GB GDDR6 192BIT
  • GALAX RTX 4070 1-CLICK OC 2X V2 PCI-E 12GB GDDR6X 192BIT
  • GALAX RTX 4070 EX GAMER 12GB GDDR6X 192BIT
  • GALAX RTX 4070 EX GAMER WHITE 12GB GDDR6X 192BIT
  • GALAX RTX 4070 SUPER 1-CLICK OC 2X V2 PCI-E 12GB GDDR6X 192BIT
  • GALAX RTX 4070 SUPER EX GAMER PCI-E 12GB GDDR6X 192BIT
  • GALAX RTX 4070 SUPER EX GAMER WHITE PCI-E 12GB GDDR6X 192BIT
  • GALAX RTX 4070 TI SUPER EX GAMER V2 PCI-E 16GB GDDR6X 256BIT
  • GALAX RTX 4070 TI SUPER EX GAMER WHITE PCI-E 16GB GDDR6X 256BIT
  • GALAX RTX 4080 SUPER SG PCI-E 16GB GDDR6X 256BIT

นี่คือรายชื่อของการ์ดจอจากค่าย GALAX ที่จัดจำหน่ายโดย Ascenti ในประเทศไทย เราจะเห็นได้ว่าแม้ตอนนี้เราจะอยู่ในยุค AI ที่ต้องใช้การ์ดจอในระดับ RTX 40 กันแล้ว แต่ในความเป็นจริงกราฟิกการ์ดอย่าง RTX 3050 และ GTX 1650 ก็ยังคงทำตลาดอยู่ ซึ่งก็ไม่ใช่เรื่องแปลกอะไรเพราะการ์ดจอเหล่านี้ยังคงมีประสิทธิภาพที่ดีเมื่อเทียบกับงบประมาณที่จ่ายออกไป เพราะตอนนี้ทาง NVIDIA เองก็ไม่ได้มีนโยบายในการผลิต RTX 40 รุ่นเล็กมาก ๆ อย่างเช่น RTX 4050 ลงตลาดเดสก์ท็อป

งบต่ำกว่า 5 พันบาท

GALAX GTX1650 EX-1 CLICK OC PLUS ยังคงเป็นการ์ดจอในระดับเริ่มต้นที่ให้ประสิทธิภาพดีสำหรับการเล่นเกมแนว eSports ที่ความละเอียดในระดับ Full HD รวมไปถึงยังคงสามารถใช้งานเรื่องการตัดต่อวิดีโอในระดับ 4K ได้อย่างสบาย ๆ แต่ก็มีข้อจำกัดตรงที่ยังไม่รองรับ AV1 แต่ถ้าใครใช้แค่ H.254/H.265 แค่ GTX 1650 ก็รับมือได้สบายครับ

งบในระดับ 6-7 พันบาท

  • GALAX RTX 3050 6GB EX GDDR6 96BIT
  • GALAX RTX 3050 6GB LP White GDDR6 96BIT

หากคุณต้องการเล่นเกมไปด้วยและต้องการถ่ายทอดสดไปด้วยบนความละเอียด Full HD การขยับจาก GTX 1650 มาเป็น GALAX RTX 3050 ก็จะทำให้คุณทั้งเล่นเกมไปพร้อมกับการสตรีมได้อย่างง่ายได้ หรือถ้าใครต้องการประกอบพีซีขนาดกะทัดรัดแบบสุด ๆ GALAX RTX 3050 6GB LP White GDDR6 96BIT ก็เป็นตัวเลือกที่น่าสนใจอย่างมากเพราะการ์ดรุ่นนี้มาในรูปแบบ Low-Porfile เหมาะสำหรับใช้อัปเกรดให้กับพีซีแบรนด์ที่มาในรูปแบบของ Small Form Factor โดยที่ไม่ต้องการคอนเน็คเตอร์ต่อไฟเพิ่ม แถมยังต่อจอภาพสูงสุดได้ถึง 4 จอพร้อมกันอีกด้วย

สำหรับ RTX 3050 นี้การตัดต่อวิดีโอก็ลื่นไหลกว่า GTX 1650 ไปอีกระดับ ทั้ง VRAM ที่สูงกว่าและมีฮาร์ดแวร์วิดีโอ DECODE/ENCODE ที่ดีกว่า รองรับการถอดรหัส AV1 แต่ยังไม่สามารถเข้ารหัส AV1 ได้ หมายถึงคุณสามารถเอาไฟล์วิดีโอ AV1 มาเร่งความเร็วในการตัดต่อได้ แต่ถ้าจะ Export ไปเป็น AV1 ยังทำไม่ได้ครับ แต่ไม่สน AV1 ก็จัดว่าเป็นการ์ดจอที่คุ้มอีกรุ่นซื้อมาอัปใส่เครื่องได้โดยไม่ต้องกังวลเรื่องพาเวอร์ซัพพลายเพราะตัวการ์ดไม่ต้องการต่อไฟเพิ่มใช้ไฟจากสล็อต PCIe ก็เพียงพอแล้ว

งบหมื่นต้น ๆ ไม่เกินหมื่นสอง

แต่ถ้าหากใครมีงบประมาณหมื่นต้น ๆ ก็ลองพิจารณามาที่ GALGA RTX 4060 Series ดูครับ ได้แก่รุ่น 

  • GALAX RTX 4060 1- CLICK OC 2X V2 8GB GDDR6 128BIT
  • GALAX RTX 4060 EX 8GB GDDR6 128BIT
  • GALAX RTX 4060 EX WHITE 8GB GDDR6 128BIT

และทั้งสามรุ่นนี้ก็สามารถเล่นเกมในระดับ Full HD แบบปรับสุดทุกอย่าง หรือจะไปเล่นเกมในระดับกลาง 2K ด้วย DLSS + Frame Gen ก็ยังได้ และนี่เป็นคุณสมบัติเฉพาะที่มีในการ์ดจอระดับ RTX 40 เท่านั้น ในขณะที่ RTX 30 ได้แค่ DLSS ไม่รองรับ Frame Gen เพราะฮาร์ดแวร์ยังแรงไม่พอ 

ที่เป็นเช่นนี้ก็เพราะว่า RTX 40 ส่วนของ RT Core ทาง NVIDIA ได้เพิ่มฮาร์ดแวร์พิเศษเข้ามาสองส่วนคือ Shader Execution Reordering (SER) และ Optical Flow Acceleration (OFA) 

Shader Execution Reordering (SER) เข้ามาช่วยปรับปรุงประสิทธิภาพของการทำ Ray Tracing โดย SER ช่วยเพิ่มประสิทธิภาพการทำงานด้วยการจัดกลุ่มงานการให้แสงและเงาที่มีความคล้ายคลึงกันเพื่อให้สามารถประมวลผลได้อย่างมีประสิทธิภาพมากขึ้นบน GPU ซึ่งสามารถเพิ่มประสิทธิภาพได้ถึง 2 เท่า ในกรณีที่มีการใช้แสงเงาที่มีความหลากหลายสูง เช่น การใช้ Path Tracing ​

นอกจากนี้ในขั้นตอนการเพิ่มเฟรม RTX 40 ก็ยังมี Optical Flow Acceleration (OFA) เป็นเทคโนโลยีที่ใช้ในการประเมินทิศทางและขนาดการเคลื่อนไหวของพิกเซลระหว่างเฟรมกราฟิกหรือเฟรมวิดีโอที่ต่อเนื่องกัน โดย OFA ใช้ได้ในหลายแอปพลิเคชัน เช่น การลดความหน่วงในระบบ VR/AR การปรับปรุงความราบรื่นของการเล่นวิดีโอ การเพิ่มประสิทธิภาพการบีบอัดวิดีโอ และการสร้างเฟรมใหม่ในเทคโนโลยี DLSS 3.x ของ NVIDIA

OFA ในสถาปัตยกรรม Ada ของ NVIDIA มีความสามารถในการประมวลผลงาน optical flow ได้ถึง 300 TeraOPS (TOPS) ซึ่งเร็วกว่าขั้นตอนการทำ Optical Flow ในสถาปัตยกรรม Ampere ที่ไม่มีฮาร์ดแวร์เฉพาะทาง ถึง 2 เท่า ข้อมูลที่ได้จาก OFA จะถูกใช้ร่วมกับเวกเตอร์การเคลื่อนไหวจากเกมเพื่อสร้างเฟรมใหม่ที่แม่นยำและมีประสิทธิภาพมากขึ้น 

นอกเหนือจากคุณสมบัติพิเศษเหล่านี้แล้ว RTX 40 ทุกรุ่นก็ยังมีฮาร์ดแวร์สำหรับการเข้ารหัสและถอดรหัสวิดีโอมาตรฐาน AV1 อีกด้วย รวมไปถึงประสิทธิภาพของวิดีโอ Encode/Decode ไฟล์วิดีโอมาตรฐานอื่น ๆ ที่ดีขึ้นด้วยเช่น เพราะใน RTX 40 มีการเพิ่มชุดหน่วยประมวลผลของวิดีโอเป็นสองชุด ทำให้การตัดต่อวิดีโอราบรื่นขึ้นไปอีกระดับ

งานนี้ก้ต้องบอกว่าด้วยงบหมื่นต้น ๆ กันการได้รับคุณสมบัติอันครบถ้วนจาก RTX 4060 Series นั้นถือว่าเป็นอะไรที่คุ้มค่าสุด ๆ แล้ว

เพิ่มอีกนิดขยับมาอยู่ในงบระดับไม่เกินหมื่นห้า

  • GALAX RTX 4060 TI 1-CLICK OC 8GB GDDR6 128BIT
  • GALAX RTX 4060 TI EX 8GB GDDR6 128BIT
  • GALAX RTX 4060 TI EX WHITE 8GB GDDR6 128BIT

เพิ่มอีกนิด เป็นคำที่ได้ยินบ่อยมาก ๆ เวลาที่เลือกซื้ออุปกรณ์คอมพิวเตอร์ สำหรับในงบประมาณที่เกิน 12K ขึ้นมาจนถึงระดับ 15K+ เราก็จะขยับจาก RTX 4060 มาเป็น RTX 4060 Ti ที่มี CUDA Core, Tensor Core และ RT Core ที่เพิ่มขึ้น ส่วนประสิทธิภาพในการเล่นเกมก็จะดีกว่า RTX 4060 อยู่ราว ๆ 20-30% ขึ้นอยู่กับเกม ซึ่งถือว่าเป็นการขยับที่ค่อนข้างคุ้มค่าเหมือนกัน

งบสองหมื่นต้นไปจนถึงสองหมื่นกลาง ๆ

  • GALAX RTX 4070 D6 1-CLICK OC 2X PCI-E 12GB GDDR6 192BIT
  • GALAX RTX 4070 1-CLICK OC 2X V2 PCI-E 12GB GDDR6X 192BIT
  • GALAX RTX 4070 EX GAMER 12GB GDDR6X 192BIT
  • GALAX RTX 4070 EX GAMER WHITE 12GB GDDR6X 192BIT
  • GALAX RTX 4070 SUPER 1-CLICK OC 2X V2 PCI-E 12GB GDDR6X 192BIT
  • GALAX RTX 4070 SUPER EX GAMER PCI-E 12GB GDDR6X 192BIT
  • GALAX RTX 4070 SUPER EX GAMER WHITE PCI-E 12GB GDDR6X 192BIT

ในงบประมาณระดับนี้เราสามารถเป็นเจ้าของ GeForce RTX 4070 ไปจนถึง RTX 4070 Super ที่มี VRAM 12GB ซึ่งการ์ดจอในอุดมคติสำหรับการเล่นเกมความละเอียดสูง และพร้อมสำหรับการใช้งานด้าน AI ที่จริงจังครับ และในงบประมาณระดับนี้ก็มีการ์ดจอให้เลือกหลายรุ่นเลยทีเดียว

GeForce RTX 4070 และ RTX 4070 Super เป็นการ์ดจอที่เหมาะกับการเล่นเกมความละเอียด 1440p แบบปรับสุดในทุกด้าน RTX 4070 Super จะให้ประสิทธิภาพที่ดีกว่าอยู่ราว 10-15% 

สำหรับใครที่ต้องการความแรงในระดับ RTX 4070 แต่มีงบประมาณไม่สูงนักคือเริ่มต้นที่สองหมื่น GALAX RTX 4070 D6 1-CLICK OC 2X PCI-E 12GB GDDR6 192BIT ถือว่าเป็นรุ่นที่น่าสนใจเพราะมีการปรับเปลี่ยนมาใช้ GDDR6 ทำให้ราคาเบาลงกว่ารุ่นที่ใช้ GDDR6X แต่ว่าประสิทธิภาพในการทำงานไม่ได้แตกต่างกันมากนักหากเป็นการใช้งานทั่วไปและไม่ได้เล่นเกมที่ต้องการแบนด์วิดธ์ของหน่วยความจำที่สูง

การ์ดจอในกลุ่ม RTX 4070 และ RTX 4070 Super ของ GALAX จะมีรุ่นพิเศษที่ผ่านเกณฑ์ NVIDIA SFF ด้วยครับ ก็คือรุ่นที่ใช้ชุดระบายความร้อนแบบ 2 พัดลม และติดตั้งโดยใช้พื้นที่ 2 PICe สล๊อตเท่านั้น ทำให้คุณสามารถประกอบพีซีขนาดเล็กแต่ยังคงความแรงในเรื่องการเล่นเกม

งบสามหมื่นขึ้นไป

  • GALAX RTX 4070 TI SUPER EX GAMER V2 PCI-E 16GB GDDR6X 256BIT
  • GALAX RTX 4070 TI SUPER EX GAMER WHITE PCI-E 16GB GDDR6X 256BIT
  • GALAX RTX 4080 SUPER SG PCI-E 16GB GDDR6X 256BIT

เวลาพูดถึงการ์ดจอในงบระดับสามหมื่นบาทนี้ ความจริงเราแทบจะไม่ต้องแนะนำอะไรแล้วครับ เพราะมันถือการ์ดจอในกลุ่มของยอดปิรามิดในเวลานี้แล้ว แม้ว่ามันจะมีบางเกมที่เพิ่งเปิดตัวมาที่ใช้การ์ดจอแรงแค่ไหนก็ไม่พอ แต่นั่นก็เป็นเพราะเกมเพิ่งเปิดตัวการออปติไมซ์ต่าง ๆ ทางผู้พัฒนาเกมและไดรเวอร์ก็ยังไม่ค่อยเรียบร้อย แต่ด้วยพื้นฐานความแรงระดับ RTX 4070 Ti Super ไปจนถึง RTX 4080 Super ที่ทาง GALAX วางจำหน่ายอยู่มันก็เล่นเกมทุกเกมบนโลกในเวลานี้ได้อย่างไม่ต้องสงสัย

และความแรงในระดับนี้นอกจากเกมแล้วบรรดาแอปพลิเคชันทั้งหมดไม่ว่าจะเป็นพวก AI หรือแอปพลิเคชันในสายครีเอเตอร์ก็สามารถรองรับได้เป็นอย่างดี และยังใช้ประสิทธิภาพในระดับสูงสุดอีกเช่นกัน ความสามารถของการ์ดจอทั้งสองรุ่นนี้ความจริงมันสามารถข้ามไปใช้งานชนกับการ์ดจอในกลุ่มเวิร์คสเตชันได้เลยในราคาที่ประหยัดกว่า

 ใช้งานด้าน AI ไปการ์ดจอรุ่นไหนดี

ถ้าเราย้อนไปดูการเปรียบเทียบสถาปัตยกรรมของ RTX 20, RTX 30 และ RTX 40 ก็บอกได้เลยว่าตอนนี้ควรจะมุ่งมาที่ RTX 40 ไปหลักจะดีที่สุดครับ เพราะมีการยกเครื่องและอัปเกรดฮาร์ดแวร์ภายในกราฟิกชิปมาให้พร้อมสำหรับการประมวลผลของ AI ในทุกด้านแล้วจริง ๆ 

และถ้าเราดูจากรายชื่อของการ์ดจอ GALAX ทางด้านบน RTX 4060 ก็เริ่มต้นใช้งานด้าน AI ได้แล้ว แต่ถ้าต้องการประสิทธิภาพในการทำงานจริง ๆ VRAM 8GB ที่อยู่บน RTX 4060 นั้นถือว่าเป็นตัวเลือกต่ำสุดครับ เราควรจะมองมาที่การ์ดจอ RTX 4070 ที่มี VRAM 12GB ก็จะช่วยให้เรามีพื้นที่ในการทำงานร่วมกับโมเดลขนาดใหญ่ได้ดีขึ้น หรือสามารถใช้งานโมเดลขนาดเล็กหลายตัวพร้อมกันได้ เนื่องจากโมเดลหรือข้อมูลในการทำงานของ AI มักจะถูกโหลดมาเก็บไว้บนตัวการ์ดจอรวดเดียวเลยเพื่อความเร็วในการอนุมานข้อมูลต่าง ๆ นั่นเอง

แต่ถ้าคุณเป็นผู้ใช้งาน AI ในแบบการฝึกอบรมโมเดลก็ไม่มีอะไรดีไปกว่าการเลือกรุ่นที่มีหน่วยความจำสูงสุดซึ่งในที่นี่ก็คือ RTX 4080 ที่มาพร้อมกับ VRAM 16GB นั้นเอง หรือถ้าไม่จำกัดงบก็ลองพรีออเดอร์ GALAX HOF RTX 4090 ที่มาพร้อมกับ VRAM 24GB ก็ดูน่าสนใจมาก ๆ ครับ

ตารางสเปค GeForce RTX 40 Series

Chapter 7 : ซอฟต์แวร์เสริมการทำงานและทดสอบประสิทธิภาพของการ์ดจอ

หากเราต้องการทราบถึงคุณสมบัติของกราฟิกการ์ดหรือกราฟิกชิปแต่ละรุ่นที่อยู่ในเครื่องของ เราก็สามารถทำได้หลายวิธีทั้งการดูโดยใช้เครื่องมือที่ติดมากับ Windows แต่ว่าไม่ละเอียด หรือจะใช้ซอฟต์แวร์ที่พัฒนาออกมาแบบเฉพาะทางก็ได้ซึ่งจะให้รายละเอียดเกี่ยวกับการ์ดจอได้มากกว่า และบางโปรแกรมก็สามารถช่วยติดตามการทำงานของการ์ดจอ รวมไปถึงใช้เป็นเครื่องมือเพื่อทำการปรับแต่งการทำงานของการ์ดจอได้อีกด้วย

GPU-Z โปรแกรมสามัญประจำเครื่องสำหรับตรวจสอบการ์ดจอ

โปรแกรม GPU-Z เป็นเครื่องมือที่มีความสำคัญสำหรับผู้ใช้งานการ์ดจอที่สนใจรายละเอียดและติดตามการทำงานของการ์ดจอ โดยเฉพาะอย่างยิ่งสำหรับนักเล่นเกมและผู้ที่ทำงานด้านกราฟิก โปรแกรมนี้ช่วยให้ผู้ใช้สามารถตรวจสอบรายละเอียดต่าง ๆ ของการ์ดจอได้อย่างละเอียดในแบบเรียลไทม์ สามารถดูได้ว่าตอนนี้มียูนิตย่อยใดในการ์ดจอกำลังทำงาน มีการใช้งานส่วนไหนมากหรือน้อยอย่างไร ตรวจสอบการใช้พลังงานและความเร็วในส่วนต่าง ๆ ของการืดจอ 

ฟีเจอร์หลักของ GPU-Z

  • ดูข้อมูลการ์ดกราฟิก: GPU-Z สามารถแสดงข้อมูลพื้นฐานเกี่ยวกับการ์ดกราฟิก เช่น ชื่อรุ่น, ผู้ผลิต, เวอร์ชันไดรเวอร์, และความเร็วของ GPU
  • ติดตามการทำงาน: โปรแกรมนี้ช่วยให้ผู้ใช้สามารถติดตามประสิทธิภาพของการ์ดกราฟิกในขณะใช้งาน ซึ่งรวมถึงอุณหภูมิ, ความเร็วของพัดลม, และการใช้พลังงาน
  • ตรวจสอบรุ่นของกราฟิกชิปได้แม่นยำ: GPU-Z รองรับการ์ดจอจากผู้ผลิตหลายรายและรองรับผู้ผลิต GPU ทุกค่าย ทำให้ผู้ใช้สามารถเข้าถึงข้อมูลที่เกี่ยวข้องกับการ์ดจอได้อย่างละเอียดมากกว่าโปรแกรมที่ติดมากับ Windows 
  • อินเทอร์เฟซที่ใช้งานง่าย: โปรแกรมมีอินเทอร์เฟซที่เรียบง่ายและเข้าใจได้ง่าย ทำให้ผู้ใช้ไม่จำเป็นต้องมีความรู้ทางเทคนิคมาก่อนก็สามารถใช้งานได้

ดาวน์โหลด GPU-Z

GPU Shark 2 ตรวจสอบการ์ดจอและการทำงานอย่างเรียบง่าย

GPU Shark 2 เป็นเครื่องมือสำหรับตรวจสอบการทำงานของการ์ดจอที่มีขนาดเล็กและฟรี สามารถใช้กับกราฟิกการ์ดได้ทุกค่ายและใช้ได้กับ iGPU และ dGPU โดยโปรแกรมนี้ให้ข้อมูลที่ครอบคลุมเกี่ยวกับประสิทธิภาพและสเปกของการ์ดจอในรูปแบบที่ใช้งานง่าย

GPU Shark แสดงข้อมูลสำคัญเกี่ยวกับการ์ดจอแต่ละใบ เช่น ความเร็วในการทำงาน (Core และ Memory Clock), อัตราการเติมเต็ม, สถานะประสิทธิภาพ, ความเร็วพัดลม และการใช้พลังงาน ข้อมูลเหล่านี้มีความสำคัญสำหรับผู้ที่ต้องการติดตามประสิทธิภาพของ GPU ในระหว่างการเล่นเกมหรือทำงานที่ต้องใช้ทรัพยากรสูง

โปรแกรมนี้มีอินเทอร์เฟซที่ได้รับการปรับปรุงให้ดูดีขึ้นเมื่อเปรียบเทียบกับรุ่นก่อนหน้า ทำให้ใช้งานง่ายและสะดวกสบาย ผู้ใช้สามารถดูข้อมูลเรียลไทม์เกี่ยวกับอุณหภูมิของ GPU, การใช้หน่วยความจำ และข้อมูลที่สำคัญอื่น ๆ

ดาวน์โหลด GPU Shark 2

XTREME TUNER ปรับแต่งและควบคุมการทำงานของการ์ดจอ

XTREME TUNER ของ GALAX เป็นซอฟต์แวร์ที่ออกแบบมาเพื่อช่วยในการปรับแต่งและโอเวอร์คล็อกการ์ดกราฟิก GALAX โดยมีฟีเจอร์ที่หลากหลายและใช้งานง่าย โดยเฉพาะสำหรับผู้ใช้ที่ต้องการปรับแต่งประสิทธิภาพของการ์ดจอของตนเอง

ฟีเจอร์หลัก

  • การควบคุมผ่านสมาร์ทโฟน: XTREME TUNER สามารถใช้งานได้ผ่านแอปพลิเคชันบนสมาร์ทโฟน ทำให้ผู้ใช้สามารถตรวจสอบและปรับแต่งการตั้งค่าต่าง ๆ ได้อย่างสะดวกสบาย เช่น การตรวจสอบอุณหภูมิ ความถี่ และความเร็วพัดลม.
  • อินเตอร์เฟซที่ใช้งานง่าย: ซอฟต์แวร์นี้มี UI ขนาดใหญ่ที่ทำให้การใช้งานไม่ยุ่งยาก แม้ว่าในบางจุดอาจจะรู้สึกว่า UI ใหญ่เกินไป แต่ก็ยังถือว่าเหมาะสำหรับผู้ที่ต้องการโอเวอร์คล็อกอย่างรวดเร็ว.
  • ฟังก์ชัน 1-Click OC: ฟีเจอร์นี้ช่วยให้ผู้ใช้สามารถโอเวอร์คล็อกการ์ดจอได้ด้วยการคลิกเพียงครั้งเดียว ซึ่งเหมาะสำหรับผู้ใช้ที่ไม่ต้องการเข้าไปปรับแต่งค่าอย่างละเอียด.

ดาวน์โหลด XTREME TUNER

5 โปรแกรมทดสอบการ์ดจอที่ใช้งานและดาวน์โหลดได้ฟรี

  • 3DMark Demo: 3DMark เป็นหนึ่งในโปรแกรมยอดนิยมตลอดกาลสำหรับการทดสอบประสิทธิภาพของการืดจอ เรียกได้ว่าอยู่คู่กับวงการการ์ดจอมาตั้งแต่เริ่มต้นกันเลยทีเดียว โปรแกรมนี้มีทั้งเวอร์ชันฟรีรุ่น Demo ที่สามารถทดสอบประสิทธิภาพเบื้องต้นได้ แต่ไม่สามารถที่ปรับแต่งรายละเอียดของการทดสอบได้เท่านั้นเองครับ ดาวน์โหลดมาทดลองได้ที่ https://store.steampowered.com/app/223850/3DMark/
  • FurMark 2: ถือว่าเป็นโปรแกรมทดสอบที่ค่อนข้างโหดเหมาะสำหรับการทดสอบเพื่อหาเสถียรภาพในการทำงานของการ์ดจอ โปรแกรมนี้สามารถใส่เวิร์คโหลดได้หลายระดับ และสามารถทำให้การ์ดจอร้อนได้จนถึงขีดสุด หากคุณมีชุดระบายความร้อนของการ์ดจอที่ไม่พร้อมเราก็ไม่แนะนำให้ใช้โปรแกรมนี้ หรือถ้าจะใช้ก็แนะนำให้ทดสอบในช่วงเวลาสั้น ๆ เท่านั้น ดาวน์โหลด https://geeks3d.com/furmark
  • SUPERPOSITION Benchmark: เป็นโปรแกรมทดสอบประสิทธิภาพการ์ดจอที่พัฒนาโดย UNIGINE Company ซึ่งเปิดตัวในปี 2017 แม้จะเป็นโปรแกรมที่เปิดตัวมานานแล้ว แต่การใช้เทคโนโลยี UNIGINE 2 Engine และมีจุดมุ่งหมายหลักในการทดสอบประสิทธิภาพและความเสถียรของ GPU โดยเฉพาะ ก็ยังคงทำให้โปรแกรมนี้ได้รับความนิยมมากพอสมควรโดยเฉพาะในหมู่ช่าง เพราะเป็นอีกโปรแกรมที่เรียกใช้ทรัพยากรของการ์ดจอได้อย่างหนักหน่วง ดาวน์โหลด Superposition benchmark | UNIGINE Benchmarks
  • Forza Horizon 4 Demo: เป็นตัวอย่างโปรแกรมเกมแข่งรถที่พัฒนาโดย Playground Games และเปิดตัวในปี 2018 โดยมีวัตถุประสงค์เพื่อให้ผู้เล่นได้สัมผัสประสบการณ์การขับขี่ในโลกเปิดที่สวยงามและมีความหลากหลายของสภาพอากาศและฤดูกาล โปรแกรมที่เป็นเดโมนี้มาพร้อมกับ Benchmark Mode ที่สามารถทดสอบประสิทธิภาพของทั้งซีพียูและกราฟิกพร้อมแสดงข้อมูลที่ช่วยให้ผู้ใช้สามารถตรวจสอบได้ เช่น ค่าเฉลี่ย FPS, การใช้งาน CPU/GPU, และจำนวนครั้งที่เกิดการกระตุก (stutter count) ในระหว่างการเล่นเกม ซึ่งทำให้ผู้ใช้สามารถประเมินประสิทธิภาพของการ์ดจอได้อย่างละเอียด ดาวน์โหลด https://apps.microsoft.com/detail/9p8cp1l72jxs
  • FINAL FANTASY XIV – Dawntrail Benchmark: โปรแกรมนี้ใช้ทดสอบประสิทธิภาพของคอมพิวเตอร์ในการรันเกม FINAL FANTASY XIV โดยใช้แผนที่และตัวละครจริงจากเกม มีเครื่องมือสร้างตัวละครที่สามารถนำข้อมูลไปใช้ในเกมเต็มได้ รวมถึงตัวเลือกใหม่สำหรับตัวละครหญิงของเผ่า Hrothgarโปรแกรมจะตรวจสอบว่าคอมพิวเตอร์ของคุณมีสเปคที่เพียงพอหรือไม่ และจะแสดงคะแนนประสิทธิภาพหลังจากการทดสอบเสร็จสิ้น ดาวน์โหลด FINAL FANTASY XIV: Dawntrail Official Benchmark

Chapter 8 : บทสรุป การเลือกซื้อการ์ดจอ

จากเรื่องราวทั้งหมดที่เราได้บอกเล่ามานี้ก็คงจะช่วยให้ผู้อ่านได้มองเห็นภาพรวมของการ์ดจอหรือกราฟิกการ์ดจากทาง NVIDIA ได้อย่างชัดเจนมากขึ้นแล้วนะครับ และคิดว่าน่าจะพอได้ข้อมูลเพื่อไปกำหนดแนวทางในการเลือกซื้อเลือกใช้การ์ดจอได้ตรงกับความต้องการกันมากขึ้น ไม่ว่าจะใช้สำหรับการเล่นเกม ใช้ทำสร้างสรรค์ต่าง ๆ รวมไปถึงงานทางด้าน AI ซึ่งการ์ดจอ GeForce RTX 30 และ RTX 40 สามารถรับจบครบทุกความต้องการได้ในตัว

อย่างไรก็ตามการเลือกซื้อการ์ดจอมาใช้งานนั้นไม่ใช่แค่คำนึงถึงแค่เรื่องงบประมาณและเรื่องของทางเทคนิคเท่านั้น แต่ยังมีประเด็นอื่น ๆ ที่ไม่ควรมองข้าม อาทิ

  1. ความเหมาะสมระหว่างประสิทธิภาพของซีพียูกับการ์ดจอ ประเด็นนี้ก็คงจะมีหลายคนที่ให้ความเห็นที่แตกต่างไป เพราะมีวัตถุประสงค์การใช้งานที่ต่างกัน บางคนต้องการการ์ดจอไว้แค่ต่อภาพออกจอเท่านั้น แต่งานที่ทำต้องอาศัยประสิทธิภาพจากซีพียูเป็นหลักแบบนี้ก็มีให้เห็นอยู่ไม่น้อยครับ แต่ถ้าเป็นการเล่นเกมส่วนใหญ่เราก็จะแนะนำให้จับคู่กันระหว่างระดับของฮาร์ดแวร์ เช่นถ้าคุณต้องการใช้การ์ดจอในระดับ GeForce RTX 4070 ให้เต็มประสิทธิภาพ ก็แนะนำว่าควรใช้ซีพียูในระดับ Intel Core i7 หรือ Ryzen 7 ขึ้นไป  เพื่อที่จะทำให้ฮาร์ดแวร์ทั้งระบบทำงานสอดประสานกันด้วยดีและใช้งานได้อย่างเต็มประสิทธิภาพครับ หรือถ้าคุณไม่ได้เน้นว่าต้องไปให้สุดของการ์ดจออาจลดลงมาเป็น Core i5 หรือ Ryzen 5 ก็ถือว่าอยู่ในเกณฑ์ที่ยังพอรับได้ครับ
  2. ความสามารถในการจ่ายไฟของพาวเวอร์ซัพพลายว่าเพียงพอต่อการ์ดจอที่เราเลือกมาใช้งานหรือเปล่า โดยเฉพาะถ้าคุณกำลังวางแผนอัปเกรดการ์ดจอมาเป็นรุ่นประสิทธิภาพสูง เช่น RTX 4080 ขึ้นไป แบบนี้แนะนำว่าให้ตรวจสอบพาวเวอร์ซัพพลายด้วยว่ามีกำลังเพียงพอต่อการ์ดจอที่เราเลือกใช้ไหม คอนเน็คเตอร์ของพาวเวอร์ซัพพลายเข้ากับการ์ดจอรุ่นใหม่ได้ไหม เรื่องเล็ก ๆ น้อย ๆ พวกนี้ บางทีมันก็ไม่ขึ้นขั้นเสียหายอะไร แต่มันอาจจะเป็นเรื่องของการเสียเวลาที่จะต้องมาจัดหาอุปกรณ์เสริมหรือต้องมาซื้อพาวเวอร์ซัพพลายใหม่ในภายหลัก
  3. ขนาดของการ์ดจอกับขนาดพื้นที่ว่างของเคสมีเหลือเพียงพอหรือไม่ซึ่งไม่ใช่แค่ขนาดของตัวการ์ดจอกับขนาดของเคสเท่านั้น แต่ต้องคำนึงถึงเรื่องของสายไฟด้วย เพื่อไม่ให้มันถูกเบียดถูกงอมาเกินไปในพื้นที่คับแคบซึ่งสามารถส่งผลต่อความเสียหายของการ์ดจอได้เลย โดยเฉพาะการ์ดจอในรุ่นประสิทะิภาพสูง หากสายไฟของชุดคอนเน็คเตอร์ต่อไม่เรียบร้อยอาจจะเกิดความร้อนของคอนเน็คเตอร์จ่ายไฟจนทำให้คอนเน็คเตอร์ละลาย สายไฟละลาย หรือแผงวงจนไหม้จนเกิดความเสียหายได้เช่นกัน
  4. นอกจากนี้ขนาดของเคสคอมพิวเตอร์เองก็ส่งผลต่อการระบายความร้อนให้กับการ์ดจอด้วยเช่นกัน หากคุณใช้การ์ดจอประสิทธิภาพสูงเป็นเวลาต่อเนื่องนาน ๆ ก็แนะนำว่าอาจจะต้องมองหาเคสที่มีขนาดใหญ่สักหน่อยเพื่อลดปัญหาความร้อนสะสมภายในเคส แต่ถ้าเคสนั้นมีขนาดเล็กแต่มีการจัดแอร์โฟล์ที่ดีแบบนี้ก็พออนุโลมกันได้ครับ
  5. การรับประกันเป็นอีกสิ่งที่ไม่ควรมองข้าม ก็อย่างที่ทราบกันครับว่าการ์ดจอตัวหนึ่งบางทีเป็นราคาเกินกว่าครึ่งของคอมพิวเตอร์ทั้งระบบด้วยซ้ำ ดังนั้นเพื่อความสบายใจและการได้รับประกันที่ดีก็อยากลืมเลือกซื้อจากแบรนด์ที่มีตัวแทนจำหน่ายในประเทศไทยที่น่าเชื่อถือ อย่างเช่น GALAX ที่จัดจำหน่ายโดย Ascenti ที่มีชื่อเสียงและการรับประกันสินค้าในระดับท็อปของประเทศ ทำให้คุณซื้อการ์ดจอมาใช้งานได้อย่างสบายใจไร้กังวลครับ