Announcement

Collapse
No announcement yet.

PCIe x16 - 2.0 vs. 3.0 Slots | Tested in 4 Games

Collapse
X
 
  • Filter
  • Time
  • Show
Clear All
new posts

  • PCIe x16 - 2.0 vs. 3.0 Slots | Tested in 4 Games


    PCIe x16 - 2.0 vs. 3.0 Slots | Tested in 4 Games

  • #2
    cpu ต่างกันด้วยล่ะ แม้จะ oc เท่ากัน แต่มันก็รุ่นละ gen เลย

    ปกติ bios มันตั้ง pcie speed เป็น auto/gen1/gen2 ได้
    แบบนั้นผลน่าจะดูอ้างอิงได้กว่า

    ยิ่งการ์ดจอรุ่นสูง ๆ ยิ่งน่าจะเห็นผลชัดเจน
    gpu usage ต้อง full load ด้วย
    Last edited by taibkk; 31 May 2019, 09:12:06.

    Comment


    • #3

      Comment


      • #4
        Originally posted by THEFOOL View Post
        คลิปนี้น่าสนใจตรงบางเกมที่ fps ต่างกัน จะเห็น cpu usage ต่างกันพอสมควร ทั้งที่ 2.0 รันเฟรมต่ำกว่า แต่ cpu usage กลับพุ่งสูง
        หรือว่าเป็นผลจากแบนด์วิธที่น้อยกว่า ?

        Comment


        • #5
          Originally posted by ZoLKoRn View Post
          เห็นผลแน่นอนครับถ้าใช้ Multi-Card เพราะอย่าลืมว่า...

          PCI-E 3.0 มีแบนด์วิดท์เป้นสองเท่าของ PCI-E 2.0

          สมมติถ้าเราใช้ 2 การ์ดมันจะได้เป็น 16x + 16x บน LGA 2011 มันก็จะได้เต็มๆ
          แล้วถ้าเราใช้ 4 การ์ดมันจะเป็น 8x + 8x + 8x + 8x ใช่ไหมล่ะครับ.... แต่พอเอามา
          เทียบกับ PCI-E 2.0 สำหรับ 8x + 8x + 8x + 8x นั่นก็หมายความว่าเหมือนกับใช้
          PCI-E 2.0 ที่ 16x + 16x + 16x +16x ไงครับเพราะมันมี BW เป็นสองเท่าอยู่แล้ว

          ในมุมกลับกันถ้าเป็น 1155 ที่ 8x + 8x มันก็จะเหมือนกับ PCI-E 2.0 ที่ 16x + 16x
          แล้วครับ แต่ที่เราไม่เห็นว่าต่างเพราะว่า 2 การ์ดต้องการแบนด์วิดท์ไม่สูงมาก จึงทำให้
          แทบไม่ต่าง แต่พอใช้มากๆการ์ดจึงจะเห็นความต่าง

          และในอีกมุมสมมติบอร์ด 1155 ใส่ชิบ PLX หรือ NF ตัวใหม่ที่รองรับ PCI-E 3.0 มา
          และต่อให้ใส่มา 3 ตัวจนทำให้บอร์ดรองรับ 16x + 16x + 16x +16x แต่ผลที่ได้
          ก็จะไม่ต่างจากที่ใส่มาครับ เพราะอย่าลืมว่า CPU มีช่องทางของ Pci-express สำหรับ
          การ์ดจอเพียง 16x เท่านั้น ดังนั้นใครที่ชอบมองๆว่าบอร์ดตัวไหน 16x + 16x ได้บ้าง
          บนแพลทฟอร์ม 1155/1156 อะไรพวกนี้ อยากบอกว่าไม่มีประโยชน์ครับ มันเป็นแค่เรื่อง
          ของการตลาดล้วนๆ

          ส่วนเมื่อก่อนที่จำเป็นต้องใส่มาเพราะว่า nVidia จะ SLI ได้นั้นจำเป็นต้องมีความเร็วการ
          เชื่อมต่อขั้นต่ำ 8x ขึ้นไปแต่ Crossfire แค่ 4x ก็ยอมให้แล้ว ทั้งนี้เขาเลยจำเป็นต้องใส่
          พวก NF-200 มาเพื่อให้การ์ดเชื่อมต่อได้มากกว่า 4x สำหรับในการ์ดตัวที่ 3 และ 4 นั่นเอง
          +1

          Comment


          • #6
            ดูจากในคลิปแล้ว เฟรมก็หายไปจริงๆนะ นี่ขนาด 1070 นะ ยังหายไปพอควรเลย
            แบบนี้ก็ตอบได้ว่า GTX1070 กินแบนวิธ เยอะกว่า PCI-E 2.0 x16 แล้ว 8GB/s ไม่พอสำหรับ GTX1070 แล้ว
            งั้นเดาว่า GTX1060 วิ่งเต็มแบนวิธของ PCI-E 2.0 X16 ละกัน

            Comment


            • #7
              Originally posted by PPG-GX2-SC View Post
              ดูจากในคลิปแล้ว เฟรมก็หายไปจริงๆนะ นี่ขนาด 1070 นะ ยังหายไปพอควรเลย
              แบบนี้ก็ตอบได้ว่า GTX1070 กินแบนวิธ เยอะกว่า PCI-E 2.0 x16 แล้ว 8GB/s ไม่พอสำหรับ GTX1070 แล้ว
              งั้นเดาว่า GTX1060 วิ่งเต็มแบนวิธของ PCI-E 2.0 X16 ละกัน

              คลิปแรก มัน cpu คนละตัว จบข่าว

              เอาจริง PCI-E 2.0 กับ 3.0 ไม่แตกต่าง

              นี่รอดู PCI-E 4.0 อยู่

              Comment


              • #8
                ลองใช้กับ m2 nvme ได้นะครับ จะได้รู้ว่าต่างมั้ย

                แล้วมีรุ่นใหม่ออกมาแล้ว วิ่ง 5000

                Comment


                • #9
                  Originally posted by Hirasawa View Post
                  ลองใช้กับ m2 nvme ได้นะครับ จะได้รู้ว่าต่างมั้ย

                  แล้วมีรุ่นใหม่ออกมาแล้ว วิ่ง 5000
                  555555

                  Comment


                  • #10
                    Originally posted by PPG-GX2-SC View Post
                    ดูจากในคลิปแล้ว เฟรมก็หายไปจริงๆนะ นี่ขนาด 1070 นะ ยังหายไปพอควรเลย
                    แบบนี้ก็ตอบได้ว่า GTX1070 กินแบนวิธ เยอะกว่า PCI-E 2.0 x16 แล้ว 8GB/s ไม่พอสำหรับ GTX1070 แล้ว
                    งั้นเดาว่า GTX1060 วิ่งเต็มแบนวิธของ PCI-E 2.0 X16 ละกัน
                    อ่าวอย่างงี้ RX Vega ก็แบนด์วิดท์เต็มสิ

                    Comment


                    • #11
                      ปัจจุบัน 2.0 Vs 3.0 เริ่มเห็นผลแล้วเพราะใช้ถึง ถ้าเมื่อก่อนน่ะไม่เห็น

                      Comment


                      • #12
                        ตาคนนี้ไม่น่าพลาดนะ ผมก็ดูอยู่ประจำช่องนี้

                        อ่อดูวันที่โพสท์มันปีครึ่งละ

                        เดี๋ยวเทสใหม่ให้เอามั้ย ตั้งในไบออสเอา

                        Comment


                        • #13
                          จัดไป รอชม

                          Comment


                          • #14
                            เรื่องข้อแตกต่างของ Pci-ex 2.0 กับ 3.0 สำหรับการใช้งานจริง tomshardware เคยทดสอบไว้นานแล้ว ก็พบว่าแทบไม่แตกต่างกัน (เขาใช้ 980 ในการทดสอบ) เลยพยายามหารีวิวที่ใช้การ์ดแรงกว่านี้มาให้ดู


                            วันนี้ก็เลยหยิบยกเอา ผลทดสอบจาก hardwaresecrets และ pugetsystems มาให้ได้ชมกัน

                            โดยการ์ดจอที่ใช้คือเจ้า 980Ti กับ Titan ตัวเก๋าเก่า





                            ส่วนของ hardwaresecrets ได้ทำการทดลอง ทั้ง Pci-ex 2.0 x16 3.0 x16 และ 3.0 x4

                            ที่น่าสนใจก็คือเจ้า Pci-ex 3.0 x4 (ก็ประมาณ Pci-ex 1.0 x16) เพื่อหาข้อจำกัด bandwidth ที่จะส่งผลกระทบกับประสิทธิภาพนั่นเอง





                            จะพบว่า ทั้ง 2.0 และ 3.0 ที่ x16 เท่ากันแทบจะไม่แตกต่างกันเลย เรียกได้ว่าเป็นอยู่ในเกณ์ 3% error margin ของทดสอบก็ว่าได้

                            ฉะนั้น ผมสรุปได้ว่า ประโยนช์ของ Pci-ex 4.0 ที่มาถึงในเร็วๆนี้ สำหรับการ์ดจอยุคใหม่ แทบจะไม่มีประโยชน์กับประสิทธิภาพของการ์ดจอเลย สิ่งที่เห็นผลและได้ประโยชน์มากกว่า คิดว่าน่าจะเป็นพวก NVMe ที่สามารถโอนถ่ายข้อมูลได้เร็วขึ้นมากกว่า (ตามบัง Zolkorn)

                            ท่านที่ใช้การ์ดจอ Pci-ex ที่ 3.0 หรือกระทั่ง 2.0 ก็ตาม ไม่ตกใจหรือรีบกุลีกุจอไปหาซื้อ 4.0 เพราะกลัวไม่แรงเท่าเพื่อนแล้วนะครับ อิอิกำ

                            ปล.อีกอย่างนึง Pci-ex ไม่ว่าจะ 2.0 3.0 4.0 สามารถใช้งานร่วมกันได้หมด แต่จะวิ่งที่ความเร็วสูงสุดที่เมนบอร์ดหรือชิปเซตนั้นรองรับนั่นเองครับ

                            ปล.2 อยากเห็นผลทดสอบกับการ์ดที่แรงกว่าแบบ 1080ti 2080ti เหมือนกันแต่หาไม่เจอเลยครับ
                            Last edited by Picasso; 2 Jun 2019, 01:18:10.

                            Comment


                            • #15
                              การ์ดจอใช่ว่าจะไม่เห็นผลนะครับ ถ้าเป็นการ์ดรุ่นใหญ่ๆ และพวกชอบเล่นหลายตัว Gen 3.0 มันเริ่มตันแล้วครับ
                              คลิปนี้ตั้งแต่ปี 2017 ล่ะ ถ้าฟังไม่ผิด พี่แกยัด 2 ตัวมันตันหรือขวดก็ว่ากันไป
                              แต่ถ้าซื้อ High-Bandwidth Bridge มาใช้อาจไม่ขวด แต่ตอนนั้นมันแพง ถ้าเอามาเทสตอนนี้ไม่รู้จะเป็นยังไง
                              การ์ดใหม่ๆ เด๋วนี้ไม่ว่าค่ายไหน bandwidth ก็เริ่มเยอะขึ้นกันหมด RAM GDDR6 ที่อยู่ในการ์ดเขียวนี่ เป็นแค่พวกระดับกลางนะ
                              แค่ 14 Gbps จริงๆมีแรงกว่านี้อีก (16 Gbps) ยังไม่ปล่อยออกมา ชิพพี่เขียวตอนนี้ยังผลิตอยู่แค่ 12nm ยังแรงขนาดนี้ ไฟก็ไม่ได้แดกมาก
                              ลองพี่แกไป 7nm TSMC บ้างสิ + ยัด GDDR6 แรงๆ ได้มันละครับ คิดแล้วน่าเป็นห่วง AMD เหมือนกันนะ จะเอาอะไรไปสู้นี่(ฝั่งการ์ดจอ)

                              ปล. Gen 4.0 มันถูกเข็นออกมาให้ได้ใช้กันเป็นเรื่องที่ดีอยู่แล้ว แต่ดูจากข่าวแล้ว Intel Gen10 อาจไม่ได้ใช้ น่าเสียดายนะครับ น่าจะใส่มา

                              This benchmark looks at dual nVidia Titan Vs in "SLI," testing the PCIe bandwidth limitations of PCIe 3.0 x8/x8 vs. x16/x16. The testing is dedicated to determining at what point the PCIe bus bottlenecks GPUs, and to see if "SLI" (using explicit multi-GPU and without a bridge, so technically unsupported) will push past the PCIe limitations.



                              Last edited by good11; 2 Jun 2019, 00:02:44.

                              Comment

                              Working...
                              X