ราคาเปิดตัว MSRP ผมไม่พูดถึงนะ เพราะมันแล้วแต่คน ต่างมุมมอง
เอาง่ายๆ ตรงๆ เข้าประเด็นเลย จุดด้อยที่ผมมองไว้เลยมี 2 ส่วน
1. RTX 4090 Support แค่ Display Port เวอร์ชัน 1.4a ไม่ Support Display Port เวอร์ชัน 2.0 ซึ่ง
ความแตกต่างกันง่ายๆ คือ bandwidth ต่างกันอย่างมาก Maximum resolution/Refreshrate (Hz) ที่รองรับก็ต่างกันด้วย
ท้าวความก่อน DisplayPort version 1.4a ถูกประกาศมาตั้งแต่ April 2018 ส่วน 2.0 ถูกประกาศมาตรฐานมาตั้งแต่ 26 June 2019 โดย VESA
แต่การ์ดเอ็งออกปลายปี 2022 จะ 2023 แล้ว และการ์ดเอ็งก็แรงขนาดนี้ ทำไมไม่ใส่มา ?
https://en.wikipedia.org/wiki/DisplayPort
แล้วปัญหา คือ ?
สื่อบางเจ้า/ความเห็นผู้ใช้บางส่วน เริ่มออกวิเคราะห์กันแล้วว่า DisplayPort version 1.4a นั้นมันคอขวดในด้าน bandwidth กับ Refreshrate (Hz)
สำหรับ RTX 4090 ที่ 4K (3840 × 2160) ตามรูปเลย คือ 120Hz ถ้ามี DSC ช่วยก็จะได้สุดที่ 144Hz หลายคนคงดูรีวิวกันไปบ้างแล้วล่ะ ซึ่งผมคิดว่าความแรงเจ้า
RTX 4090 มันก้าวข้ามจุดนี้ไปแล้วนะ บวกกับเทคโนโลยี DLSS ตัวใหม่ด้วย ปั่นเฟรมแถวนี้ดูจะเป็นเรื่องง่ายๆ นี่ถ้า RTX 4090 Ti ออกมาก็จะแรงกว่านี้อีก
จริงอยู่จะมองที่การ์ดจออย่างเดียวไม่ได้ ก็ต้องมองที่ จอคอมที่จะออกมา Support ด้วย เอาง่ายๆ คุณคิดว่าจอคอมความละเอียดที่ 4K (3840 × 2160)
Refreshrate ที่มากกว่า 120/144Hz เช่น 240Hz จะออกมาเร็วๆนี้ หรือช่วงปีหน้าไหมล่ะ ? (หรือมีแล้ว ?) ส่วนตัวผมคิดว่ามีและจอหลายรุ่นๆ จะออกมาพร้อมรองรับ DisplayPort version 2.0 ด้วย
ทีนี้ก็คิดเอง ถ้าซื้อไปแล้ว พอใจแค่ 120/144 Hz ที่ 4K ไหม พอใจก็จบ ถ้าเกินนี้และเผื่ออนาคต DisplayPort version 1.4a ไม่ตอบโจทย์คุณแน่นอน รอ Next Gen VGA ได้เลย
ปล. Intel ARC Support DisplayPort version 2.0 แต่ไม่มีปัญหาเรื่องคอขวด เพราะ ARC 7 770 ยังแรงแค่ RTX 3060
AMD Next Gen RDNA3 RX 7000 Serie ข่าวลือว่า DisplayPort version 2.0 และอาจเป็น 2.1 ด้วยซ้ำ แต่ความแรงก็คงต้องมาดูกันอีกที
ท่านที่ใช้การ์ดจอ ที่แรงน้อยกว่านี้ หรือไม่ได้ใช้จอ 4K ที่ Hz แถว 120/144 Hz หรือเกินนี้ก็ไม่ต้องกังวลไปนะ ไอ DP 1.4a เนี่ย
Nvidia ออกมาให้ความเห็นในประเด็นนี้ว่า
In an official Q&A, NVIDIA has explained that DisplayPort 2.0 is still ‘a ways away in the future’.
เหรอ 8K หนะใช่ แต่ 4K ไม่ใช่แล้วมั้ง สำหรับอนาคตอันใกล้และคนที่ซื้อการ์ดจอระดับนี้ ส่วนตัวนะ
อ้างอิง
https://videocardz.com/newz/amd-navi...-2-1-interface
2. RTX 4090 Support แค่ PCIe 4.0 ไม่ Support PCIe 5.0 (แต่ใช้ ขั้วต่อไฟ Next Gen PCIe Gen 5 นะ)
https://en.wikipedia.org/wiki/PCI_Express
ผมขอให้ข้อมูลก่อนว่า
Intel CPU Gen 12/13 จะมี Lane PCIe Gen5 แค่ 16 Lane วิ่งตรงเข้า CPU
และจะมี Lane PCIe Gen 4 เพียง 4 Lane วิ่งตรงเข้า CPU ที่ออกแบบไว้ให้ M.2 SSD
(16+4 รวม 20)
AMD Ryzen 7000 จะมี Lane PCIe Gen5 16 Lane วิ่งตรงเข้า CPU
และจะมี Lane PCIe Gen 5 จำนวน 8 Lane วิ่งตรงเข้า CPU (x4 ออกแบบไว้ให้ M.2 SSD อีก 4x ไว้ต่อทำอย่างอื่น)
(16+4+4 รวม 24)
แล้วปัญหา คือ ?
ปัญหาจะเกิดขึ้นกับผู้ที่อยากใช้ M.2 รุ่นใหม่ที่เป็น PCIe Gen 5 ที่กำลังจะออกมาและใช้ Intel CPU Gen 12-13 นั่นแหละครับ
ท้าวความกันก่อน PCIe 4.0x16 นี่ไม่มีปัญหาเรื่องขอขวดสำหรับการ์ดจอหรอกนะ
PCIe 5.0x16 นี่ก็การตลาดชัดๆ (bandwidth PCIe 5.0x8 = PCIe 4.0x16)
หลายคนอ่านมาถึงตรงนี้ บางคนคงเดาได้แล้วแหละ อิอิ
ถ้ามองการออกแบบในเมนบอร์ด Z790 ที่กำลังจะออกมาในวันที่ 20 ตุลานี้ คุณจะเห็นได้เลยว่ามันมีช่อง M.2 พิเศษอยู่ช่องนึง
ที่ Support M.2 SSD PCIe Gen 5 จำนวน 1 ช่อง แต่มันจะไปแย่ง Lane มาจาก x16 ของการ์ดจอ (คนละช่องกับช่องหลัก M.2 ที่ Support Gen4 วิ่งตรงเข้า CPU นะ มันแยกกัน)
ทำให้ช่อง PCIe หลัก 5.0x16 วิ่งเหลือแค่ PCIe 5.0x8
จำข้างบนได้ป่ะที่ผมเขียนไว้ว่า bandwidth PCIe 5.0x8 = PCIe 4.0x16 ก็ไม่น่ามีปัญหานี่ครับ
แต่คุณลืมอะไรไปหรือไม่ว่า RTX 4090 มัน Support แค่ PCIe 4.0 ยังไงล่ะ
ทีนี้แหละการ์ดจอ RTX 4090 ก็จะวิ่งแค่ PCIe 4.0x8 หรือเทียบเท่า PCIe 3.0x16 ยังไงล่ะ
ไปหาคลิปทดสอบดูกันได้ที่มีการทดสอบ RTX 3090 บน PCIe 4.0x16 กับ PCIe 3.0x16
ซึ่งมันแตกต่างกันนะ อย่างน้อยก็เห็นผลถึงแม้จะนิดนึงก็ตาม แต่คุณอย่าลืม RTX 4090 มันแรงกว่า RTX 3090 หลายขุมอยู่เน้อ
ช่องว่างก็จะมากขึ้นไปอีก หากรับได้ก็ไม่ว่ากัน
ปล. เหมือนเดิม หากคุณใช้การ์ดระดับต่ำๆ ลงไปกว่านี้ หรือใช้แค่ M.2 SSD PCIe Gen4 ไม่ได้ใช้ Gen5 แล้วเสียบเข้าช่องตรงเข้า CPU ปกติ บน System CPU Intel Gen 12/13
(ไม่ใช่ช่องพิเศษที่แย่ง Lane) ก็ไม่ต้องกังวลอะไรหรอกเพราะ RTX 4090 ก็วิ่ง 4.0x16 ตามเดิม ไม่มีปัญหาอะไรหรอก อิอิ
อ้างอิง
https://www.asrock.com/mb/Intel/Z790%20Taichi/index.asp
AMD จ่ายเงินผมด้วยนะครับ ถรุ๊ยยย ใครไม่ดี AMD
เอาง่ายๆ ตรงๆ เข้าประเด็นเลย จุดด้อยที่ผมมองไว้เลยมี 2 ส่วน
1. RTX 4090 Support แค่ Display Port เวอร์ชัน 1.4a ไม่ Support Display Port เวอร์ชัน 2.0 ซึ่ง
ความแตกต่างกันง่ายๆ คือ bandwidth ต่างกันอย่างมาก Maximum resolution/Refreshrate (Hz) ที่รองรับก็ต่างกันด้วย
ท้าวความก่อน DisplayPort version 1.4a ถูกประกาศมาตั้งแต่ April 2018 ส่วน 2.0 ถูกประกาศมาตรฐานมาตั้งแต่ 26 June 2019 โดย VESA
แต่การ์ดเอ็งออกปลายปี 2022 จะ 2023 แล้ว และการ์ดเอ็งก็แรงขนาดนี้ ทำไมไม่ใส่มา ?
https://en.wikipedia.org/wiki/DisplayPort
แล้วปัญหา คือ ?
สื่อบางเจ้า/ความเห็นผู้ใช้บางส่วน เริ่มออกวิเคราะห์กันแล้วว่า DisplayPort version 1.4a นั้นมันคอขวดในด้าน bandwidth กับ Refreshrate (Hz)
สำหรับ RTX 4090 ที่ 4K (3840 × 2160) ตามรูปเลย คือ 120Hz ถ้ามี DSC ช่วยก็จะได้สุดที่ 144Hz หลายคนคงดูรีวิวกันไปบ้างแล้วล่ะ ซึ่งผมคิดว่าความแรงเจ้า
RTX 4090 มันก้าวข้ามจุดนี้ไปแล้วนะ บวกกับเทคโนโลยี DLSS ตัวใหม่ด้วย ปั่นเฟรมแถวนี้ดูจะเป็นเรื่องง่ายๆ นี่ถ้า RTX 4090 Ti ออกมาก็จะแรงกว่านี้อีก
จริงอยู่จะมองที่การ์ดจออย่างเดียวไม่ได้ ก็ต้องมองที่ จอคอมที่จะออกมา Support ด้วย เอาง่ายๆ คุณคิดว่าจอคอมความละเอียดที่ 4K (3840 × 2160)
Refreshrate ที่มากกว่า 120/144Hz เช่น 240Hz จะออกมาเร็วๆนี้ หรือช่วงปีหน้าไหมล่ะ ? (หรือมีแล้ว ?) ส่วนตัวผมคิดว่ามีและจอหลายรุ่นๆ จะออกมาพร้อมรองรับ DisplayPort version 2.0 ด้วย
ทีนี้ก็คิดเอง ถ้าซื้อไปแล้ว พอใจแค่ 120/144 Hz ที่ 4K ไหม พอใจก็จบ ถ้าเกินนี้และเผื่ออนาคต DisplayPort version 1.4a ไม่ตอบโจทย์คุณแน่นอน รอ Next Gen VGA ได้เลย
ปล. Intel ARC Support DisplayPort version 2.0 แต่ไม่มีปัญหาเรื่องคอขวด เพราะ ARC 7 770 ยังแรงแค่ RTX 3060
AMD Next Gen RDNA3 RX 7000 Serie ข่าวลือว่า DisplayPort version 2.0 และอาจเป็น 2.1 ด้วยซ้ำ แต่ความแรงก็คงต้องมาดูกันอีกที
ท่านที่ใช้การ์ดจอ ที่แรงน้อยกว่านี้ หรือไม่ได้ใช้จอ 4K ที่ Hz แถว 120/144 Hz หรือเกินนี้ก็ไม่ต้องกังวลไปนะ ไอ DP 1.4a เนี่ย
Nvidia ออกมาให้ความเห็นในประเด็นนี้ว่า
In an official Q&A, NVIDIA has explained that DisplayPort 2.0 is still ‘a ways away in the future’.
เหรอ 8K หนะใช่ แต่ 4K ไม่ใช่แล้วมั้ง สำหรับอนาคตอันใกล้และคนที่ซื้อการ์ดจอระดับนี้ ส่วนตัวนะ
อ้างอิง
https://videocardz.com/newz/amd-navi...-2-1-interface
2. RTX 4090 Support แค่ PCIe 4.0 ไม่ Support PCIe 5.0 (แต่ใช้ ขั้วต่อไฟ Next Gen PCIe Gen 5 นะ)
https://en.wikipedia.org/wiki/PCI_Express
ผมขอให้ข้อมูลก่อนว่า
Intel CPU Gen 12/13 จะมี Lane PCIe Gen5 แค่ 16 Lane วิ่งตรงเข้า CPU
และจะมี Lane PCIe Gen 4 เพียง 4 Lane วิ่งตรงเข้า CPU ที่ออกแบบไว้ให้ M.2 SSD
(16+4 รวม 20)
AMD Ryzen 7000 จะมี Lane PCIe Gen5 16 Lane วิ่งตรงเข้า CPU
และจะมี Lane PCIe Gen 5 จำนวน 8 Lane วิ่งตรงเข้า CPU (x4 ออกแบบไว้ให้ M.2 SSD อีก 4x ไว้ต่อทำอย่างอื่น)
(16+4+4 รวม 24)
แล้วปัญหา คือ ?
ปัญหาจะเกิดขึ้นกับผู้ที่อยากใช้ M.2 รุ่นใหม่ที่เป็น PCIe Gen 5 ที่กำลังจะออกมาและใช้ Intel CPU Gen 12-13 นั่นแหละครับ
ท้าวความกันก่อน PCIe 4.0x16 นี่ไม่มีปัญหาเรื่องขอขวดสำหรับการ์ดจอหรอกนะ
PCIe 5.0x16 นี่ก็การตลาดชัดๆ (bandwidth PCIe 5.0x8 = PCIe 4.0x16)
หลายคนอ่านมาถึงตรงนี้ บางคนคงเดาได้แล้วแหละ อิอิ
ถ้ามองการออกแบบในเมนบอร์ด Z790 ที่กำลังจะออกมาในวันที่ 20 ตุลานี้ คุณจะเห็นได้เลยว่ามันมีช่อง M.2 พิเศษอยู่ช่องนึง
ที่ Support M.2 SSD PCIe Gen 5 จำนวน 1 ช่อง แต่มันจะไปแย่ง Lane มาจาก x16 ของการ์ดจอ (คนละช่องกับช่องหลัก M.2 ที่ Support Gen4 วิ่งตรงเข้า CPU นะ มันแยกกัน)
ทำให้ช่อง PCIe หลัก 5.0x16 วิ่งเหลือแค่ PCIe 5.0x8
จำข้างบนได้ป่ะที่ผมเขียนไว้ว่า bandwidth PCIe 5.0x8 = PCIe 4.0x16 ก็ไม่น่ามีปัญหานี่ครับ
แต่คุณลืมอะไรไปหรือไม่ว่า RTX 4090 มัน Support แค่ PCIe 4.0 ยังไงล่ะ
ทีนี้แหละการ์ดจอ RTX 4090 ก็จะวิ่งแค่ PCIe 4.0x8 หรือเทียบเท่า PCIe 3.0x16 ยังไงล่ะ
ไปหาคลิปทดสอบดูกันได้ที่มีการทดสอบ RTX 3090 บน PCIe 4.0x16 กับ PCIe 3.0x16
ซึ่งมันแตกต่างกันนะ อย่างน้อยก็เห็นผลถึงแม้จะนิดนึงก็ตาม แต่คุณอย่าลืม RTX 4090 มันแรงกว่า RTX 3090 หลายขุมอยู่เน้อ
ช่องว่างก็จะมากขึ้นไปอีก หากรับได้ก็ไม่ว่ากัน
ปล. เหมือนเดิม หากคุณใช้การ์ดระดับต่ำๆ ลงไปกว่านี้ หรือใช้แค่ M.2 SSD PCIe Gen4 ไม่ได้ใช้ Gen5 แล้วเสียบเข้าช่องตรงเข้า CPU ปกติ บน System CPU Intel Gen 12/13
(ไม่ใช่ช่องพิเศษที่แย่ง Lane) ก็ไม่ต้องกังวลอะไรหรอกเพราะ RTX 4090 ก็วิ่ง 4.0x16 ตามเดิม ไม่มีปัญหาอะไรหรอก อิอิ
อ้างอิง
https://www.asrock.com/mb/Intel/Z790%20Taichi/index.asp
AMD จ่ายเงินผมด้วยนะครับ ถรุ๊ยยย ใครไม่ดี AMD
Comment