Announcement
Collapse
No announcement yet.
PCIe x16 - 2.0 vs. 3.0 Slots | Tested in 4 Games
Collapse
X
-
-
Originally posted by ZoLKoRn View Postเห็นผลแน่นอนครับถ้าใช้ Multi-Card เพราะอย่าลืมว่า...
PCI-E 3.0 มีแบนด์วิดท์เป้นสองเท่าของ PCI-E 2.0
สมมติถ้าเราใช้ 2 การ์ดมันจะได้เป็น 16x + 16x บน LGA 2011 มันก็จะได้เต็มๆ
แล้วถ้าเราใช้ 4 การ์ดมันจะเป็น 8x + 8x + 8x + 8x ใช่ไหมล่ะครับ.... แต่พอเอามา
เทียบกับ PCI-E 2.0 สำหรับ 8x + 8x + 8x + 8x นั่นก็หมายความว่าเหมือนกับใช้
PCI-E 2.0 ที่ 16x + 16x + 16x +16x ไงครับเพราะมันมี BW เป็นสองเท่าอยู่แล้ว
ในมุมกลับกันถ้าเป็น 1155 ที่ 8x + 8x มันก็จะเหมือนกับ PCI-E 2.0 ที่ 16x + 16x
แล้วครับ แต่ที่เราไม่เห็นว่าต่างเพราะว่า 2 การ์ดต้องการแบนด์วิดท์ไม่สูงมาก จึงทำให้
แทบไม่ต่าง แต่พอใช้มากๆการ์ดจึงจะเห็นความต่าง
และในอีกมุมสมมติบอร์ด 1155 ใส่ชิบ PLX หรือ NF ตัวใหม่ที่รองรับ PCI-E 3.0 มา
และต่อให้ใส่มา 3 ตัวจนทำให้บอร์ดรองรับ 16x + 16x + 16x +16x แต่ผลที่ได้
ก็จะไม่ต่างจากที่ใส่มาครับ เพราะอย่าลืมว่า CPU มีช่องทางของ Pci-express สำหรับ
การ์ดจอเพียง 16x เท่านั้น ดังนั้นใครที่ชอบมองๆว่าบอร์ดตัวไหน 16x + 16x ได้บ้าง
บนแพลทฟอร์ม 1155/1156 อะไรพวกนี้ อยากบอกว่าไม่มีประโยชน์ครับ มันเป็นแค่เรื่อง
ของการตลาดล้วนๆ
ส่วนเมื่อก่อนที่จำเป็นต้องใส่มาเพราะว่า nVidia จะ SLI ได้นั้นจำเป็นต้องมีความเร็วการ
เชื่อมต่อขั้นต่ำ 8x ขึ้นไปแต่ Crossfire แค่ 4x ก็ยอมให้แล้ว ทั้งนี้เขาเลยจำเป็นต้องใส่
พวก NF-200 มาเพื่อให้การ์ดเชื่อมต่อได้มากกว่า 4x สำหรับในการ์ดตัวที่ 3 และ 4 นั่นเอง
Comment
-
Originally posted by PPG-GX2-SC View Postดูจากในคลิปแล้ว เฟรมก็หายไปจริงๆนะ นี่ขนาด 1070 นะ ยังหายไปพอควรเลย
แบบนี้ก็ตอบได้ว่า GTX1070 กินแบนวิธ เยอะกว่า PCI-E 2.0 x16 แล้ว 8GB/s ไม่พอสำหรับ GTX1070 แล้ว
งั้นเดาว่า GTX1060 วิ่งเต็มแบนวิธของ PCI-E 2.0 X16 ละกัน
คลิปแรก มัน cpu คนละตัว จบข่าว
เอาจริง PCI-E 2.0 กับ 3.0 ไม่แตกต่าง
นี่รอดู PCI-E 4.0 อยู่
Comment
-
Originally posted by PPG-GX2-SC View Postดูจากในคลิปแล้ว เฟรมก็หายไปจริงๆนะ นี่ขนาด 1070 นะ ยังหายไปพอควรเลย
แบบนี้ก็ตอบได้ว่า GTX1070 กินแบนวิธ เยอะกว่า PCI-E 2.0 x16 แล้ว 8GB/s ไม่พอสำหรับ GTX1070 แล้ว
งั้นเดาว่า GTX1060 วิ่งเต็มแบนวิธของ PCI-E 2.0 X16 ละกัน
Comment
-
เรื่องข้อแตกต่างของ Pci-ex 2.0 กับ 3.0 สำหรับการใช้งานจริง tomshardware เคยทดสอบไว้นานแล้ว ก็พบว่าแทบไม่แตกต่างกัน (เขาใช้ 980 ในการทดสอบ) เลยพยายามหารีวิวที่ใช้การ์ดแรงกว่านี้มาให้ดู
วันนี้ก็เลยหยิบยกเอา ผลทดสอบจาก hardwaresecrets และ pugetsystems มาให้ได้ชมกัน
โดยการ์ดจอที่ใช้คือเจ้า 980Ti กับ Titan ตัวเก๋าเก่า
ส่วนของ hardwaresecrets ได้ทำการทดลอง ทั้ง Pci-ex 2.0 x16 3.0 x16 และ 3.0 x4
ที่น่าสนใจก็คือเจ้า Pci-ex 3.0 x4 (ก็ประมาณ Pci-ex 1.0 x16) เพื่อหาข้อจำกัด bandwidth ที่จะส่งผลกระทบกับประสิทธิภาพนั่นเอง
จะพบว่า ทั้ง 2.0 และ 3.0 ที่ x16 เท่ากันแทบจะไม่แตกต่างกันเลย เรียกได้ว่าเป็นอยู่ในเกณ์ 3% error margin ของทดสอบก็ว่าได้
ฉะนั้น ผมสรุปได้ว่า ประโยนช์ของ Pci-ex 4.0 ที่มาถึงในเร็วๆนี้ สำหรับการ์ดจอยุคใหม่ แทบจะไม่มีประโยชน์กับประสิทธิภาพของการ์ดจอเลย สิ่งที่เห็นผลและได้ประโยชน์มากกว่า คิดว่าน่าจะเป็นพวก NVMe ที่สามารถโอนถ่ายข้อมูลได้เร็วขึ้นมากกว่า (ตามบัง Zolkorn)
ท่านที่ใช้การ์ดจอ Pci-ex ที่ 3.0 หรือกระทั่ง 2.0 ก็ตาม ไม่ตกใจหรือรีบกุลีกุจอไปหาซื้อ 4.0 เพราะกลัวไม่แรงเท่าเพื่อนแล้วนะครับ อิอิกำ
ปล.อีกอย่างนึง Pci-ex ไม่ว่าจะ 2.0 3.0 4.0 สามารถใช้งานร่วมกันได้หมด แต่จะวิ่งที่ความเร็วสูงสุดที่เมนบอร์ดหรือชิปเซตนั้นรองรับนั่นเองครับ
ปล.2 อยากเห็นผลทดสอบกับการ์ดที่แรงกว่าแบบ 1080ti 2080ti เหมือนกันแต่หาไม่เจอเลยครับLast edited by Picasso; 2 Jun 2019, 01:18:10.
Comment
-
การ์ดจอใช่ว่าจะไม่เห็นผลนะครับ ถ้าเป็นการ์ดรุ่นใหญ่ๆ และพวกชอบเล่นหลายตัว Gen 3.0 มันเริ่มตันแล้วครับ
คลิปนี้ตั้งแต่ปี 2017 ล่ะ ถ้าฟังไม่ผิด พี่แกยัด 2 ตัวมันตันหรือขวดก็ว่ากันไป
แต่ถ้าซื้อ High-Bandwidth Bridge มาใช้อาจไม่ขวด แต่ตอนนั้นมันแพง ถ้าเอามาเทสตอนนี้ไม่รู้จะเป็นยังไง
การ์ดใหม่ๆ เด๋วนี้ไม่ว่าค่ายไหน bandwidth ก็เริ่มเยอะขึ้นกันหมด RAM GDDR6 ที่อยู่ในการ์ดเขียวนี่ เป็นแค่พวกระดับกลางนะ
แค่ 14 Gbps จริงๆมีแรงกว่านี้อีก (16 Gbps) ยังไม่ปล่อยออกมา ชิพพี่เขียวตอนนี้ยังผลิตอยู่แค่ 12nm ยังแรงขนาดนี้ ไฟก็ไม่ได้แดกมาก
ลองพี่แกไป 7nm TSMC บ้างสิ + ยัด GDDR6 แรงๆ ได้มันละครับ คิดแล้วน่าเป็นห่วง AMD เหมือนกันนะ จะเอาอะไรไปสู้นี่(ฝั่งการ์ดจอ)
ปล. Gen 4.0 มันถูกเข็นออกมาให้ได้ใช้กันเป็นเรื่องที่ดีอยู่แล้ว แต่ดูจากข่าวแล้ว Intel Gen10 อาจไม่ได้ใช้ น่าเสียดายนะครับ น่าจะใส่มา
This benchmark looks at dual nVidia Titan Vs in "SLI," testing the PCIe bandwidth limitations of PCIe 3.0 x8/x8 vs. x16/x16. The testing is dedicated to determining at what point the PCIe bus bottlenecks GPUs, and to see if "SLI" (using explicit multi-GPU and without a bridge, so technically unsupported) will push past the PCIe limitations.
Last edited by good11; 2 Jun 2019, 00:02:44.
Comment
Comment