Announcement

Collapse
No announcement yet.

เรื่องการเปลืองไฟกับการ์ดจอ ถ้าคิดเป็นเงิน มันต่างกันแค่ไหน ทำไมถึงเอามาเป็นประเด็น

Collapse
X
 
  • Filter
  • Time
  • Show
Clear All
new posts

  • เรื่องการเปลืองไฟกับการ์ดจอ ถ้าคิดเป็นเงิน มันต่างกันแค่ไหน ทำไมถึงเอามาเป็นประเด็น

    เห็นเป็นข้ออ้าง ที่ชอบเอ่ยถึง เวลาแนะนำการ์ดจอ เกือบ ๆ ทุกกระทู้
    เห็นเป็นประเด็น มานานแล้ว ก็เลยสงสัยว่า ต่อเดือน มันเสียตัง เพิ่มขึ้นเท่าไหร่ กับการ์ดต่างยี่ห้อกัน

    ยกตัวอย่าง ตัวเอง
    ตอนนี้ใช้ psu xfx 750

    เปิดคอม 18 ชั่วโมง /วัน แต่เล่มเกมส์ แค่ 3 ชม. /วัน 25 วัน / เดือน

    ถ้าผมใช้ 480 ผมจะเสียค่าไฟ ประมาณ เท่าไหร่ / เดือน
    ถ้าผมใช้ 1060 ผมจะเสียค่าไฟ ประมาณ เท่าไหร่ / เดือน

    ถ้าผมอยากแรงสุด ๆ ใช้ 1080ti ผมจะเสียค่าไฟ ประมาณ เท่าไหร่ / เดือน

    ใครช่วยประมาณให้หน่อยว่า 3 ตัว นี้ ผมต้องเสียค่าไฟต่างกันเท่าไหร่

    คือ ถ้าต่างกันแค่ 100-200 ต่อเดือน นี่ ผมจะไม่สนใจอีกเลย กับการกินไฟ

  • #2
    จากกระทู้นี้

    สูตรคำนวณค่าไฟเป็นหน่วย (Unit)

    Unit = (Watt x จำนวนชั่วโมงที่ใช้) / 1000

    จากความแตกต่างประมาณ 5 watt สมมติเล่นเกมวันละ 4 ชั่วโมง

    Unit = (5 x 4) / 1000
    Unit = 0.02 หน่วย ต่อวัน
    Unit = 0.02 x 30 = 0.6 หน่วยต่อเดือน
    Unit = 0.6 x 12 = 7.2 หน่วยต่อปี

    คิดเป็นค่าไฟ* = 7.2 x 4.1 = 29.52 หรือ 30 บาทต่อปี
    *ในการคิดค่าไฟที่แน่นอนที่สุดก็คือเอาบิลค่าไฟมาดูครับแล้วเอาหน่วยที่ใช้ในเดือนนั้น ๆ หารกับค่าไฟ

    ตัวอย่างเช่นค่าไฟบ้านผมเอง



    ใช้ไฟทั้งหมด 683 หน่วย ค่าไฟ 2795 บาท
    ดังนั้นตกหน่วยละ 2795/683 = 4.1 บาท
    ถ้าลองคิดเทียบบัณญัติยางค์เล่น ๆ

    คิดจากเล่นวันละ 4 ชั่วโมง เล่นติดกันทุกวันเป็นเวลา 1 ปี

    5 watt เล่นวันละ 4 ชั่วโมง ปีนึงก็เสีย 30 บาท

    ถ้าการ์ดจอกินไฟต่างกัน 100 watt ก็ต่างกัน 20 เท่า --> ต่างกัน 600 บาทต่อปี
    ถ้าการ์ดจอกินไฟต่างกัน 150 watt ก็ต่างกัน 30 เท่า --> ต่างกัน 900 บาทต่อปี

    อยากอ่านตัวเต็มก็เชิญที่กระทู้นี้

    https://www.overclockzone.com/forums...B9%84%E0%B8%9F

    Comment


    • #3
      อ่ะ คำนวณให้ ผมคิดว่าช่วง 15 ชม. ที่คุณไม่ได้เล่นเกมส์ คุณเปิดเครื่องไว้โดยไม่ได้ใช้งานอะไรที่กินพลังกราฟฟิกการ์ดเลยนะครับ ได้ค่าไฟต่อเดือนตามนี้

      Attached Files
      Last edited by Phoenix81; 20 Apr 2017, 16:15:21.

      Comment


      • #4

        Comment


        • #5
          เดือนนึง 100-200
          ปีนุง 1000-2000
          5 ปี 5000-10000
          10 ปี

          Comment


          • #6
            Originally posted by Phoenix81 View Post
            อ่ะ คำนวณให้ ผมคิดว่าช่วง 15 ชม. ที่คุณไม่ได้เล่นเกมส์ คุณเปิดเครื่องไว้โดยไม่ได้ใช้งานอะไรที่กินพลังกราฟฟิกการ์ดเลยนะครับ ได้ค่าไฟต่อเดือนตามนี้

            [ATTACH=CONFIG]3854232[/ATTACH]
            ถ้าตามนี้

            ต่อไป ผมอยาก ใช้การ์ดจอ แรงแค่ไหน ผมจะไม่เอาประเด็นเรื่องค่าไฟมา เป็นกังวล อีกเลย

            ผมคิดว่า สิ่งที่ผมได้รับ มันมหาศาล ถ้าเทียบกับ ความต่างของค่าไฟ

            Comment


            • #7
              ใช้ไฟน้อย มันเย็นกว่า ลากไปได้ไกลกว่า แรงกว่า

              ค่าไฟฟ้าจากพลังงานที่การ์ดจอใช้ ไม่ใช่ประเด็นสำคัญครับ

              Comment


              • #8
                อ้อ...... ถึงบางอ้อ ครับ ผมนึกตั้งนานว่า ห่วงเรื่อง การกินไฟ ซะอีก


                ขออภัย จริง ๆ

                Comment


                • #9
                  ผมว่าค่าไฟน่ะไม่ใช่ประเด็น แต่ประเด็นคือค่า PSU มันต้องจ่ายเพิ่มนี่สิ

                  Comment


                  • #10
                    การ์ดจอปกติใช้กัน 1-2ปี สมมติต่างกันเดือนละร้อย สองปีก็สองพัน ส่วนต่างเอาไปซื้อรุ่น OC ที่แรงกว่าเดิมได้ หรือถ้าใช้สามปี ส่วนต่างเอาไปซื้อรุ่นที่แรงกว่าอีก level นึงเลยก็ว่าได้นะ ถ้าคิดเรื่องความคุ้มค่าหรืองบจำกัด ก็ต้องคำนึงกันหน่อย โดยเฉพาะถ้าเล่นเกมหนักๆก็ต่างกันเยอะ

                    อีกกรณีถ้ากินไฟต่างกันมากๆ เช่นเจอระดับ 250watt อันนี้ PSU ต้องดีพอนะครับ กระทู้เก่าๆเจอกันบ่อยๆ ใช้การ์ดบางรุ่นที่กินไฟ 200++ watt แล้วดับ PSU แต๊บ เพราะใช้ PSU เกรดกลางๆ อย่าคิดว่าตัวเลข 650-750watt จะพอเสมอไป ยิ่งมีอายุเยอะ มันมี degrade จ่ายไฟได้น้อยลงเรื่อยๆนะครับ

                    แต่ถ้าอาศัยความชอบ ก็ไม่ต้องสนใจเหตุผล(คือยอมรับข้อเสียมัน)

                    ป.ล. ผมใช้ RX-480 เคยนั่งวัดด้วยwatt meterมาหมดแล้ว ทั้งใบเดียวสองใบ จนต้องถอดออกเหลือใบเดียว เพราะแค่เอาไปดูหนังพี่ท่านเล่นเปิดการ์ดสองใบทำงาน(ถึงจะไม่ full load แต่เปลืองกว่าใส่ใบเดียวเยอะ ไม่ใช่ระดับ idle นะครับ แต่เป็นจากทั้งระบบร้อยต้นๆกลายเป็นสองร้อยwatt)

                    ป.ล.2 อย่าคิดว่าการเล่นเนท ดู clip youtube จะกินไฟเท่า idle นะครับ ยิ่งถ้าเปิดhardware acceleratorในchrome/firefox จะใช้การ์ดจอช่วยประมวลผลตลอด ส่วนใหญ่ถ้าเปิดคลิปก็กินไฟเกือบครึ่งนึงของ maximum เลยทีเดียว ทำให้การใช้งานจริง เปลืองกว่าที่คาด
                    Last edited by Fourpoint; 20 Apr 2017, 18:01:31.

                    Comment


                    • #11
                      Originally posted by Hiramasa View Post
                      ผมว่าค่าไฟน่ะไม่ใช่ประเด็น แต่ประเด็นคือค่า PSU มันต้องจ่ายเพิ่มนี่สิ
                      ซื้อการ์ดจอตัวกลางๆต่อไฟเพิ่มยังไงก็ควรเปลี่ยน PSU อยู่แล้วครับไม่ว่าการ์ดจอค่ายไหน

                      จะประหยัดไฟยังไงถ้าการ์ดจอราคาตัวละ5-6000ขึ้น จะมีซักกี่คนที่กล้าเสี่ยงใช้กับPSUติดเคสหรือของโนเนมถูกๆครับ

                      Comment


                      • #12
                        ประกอบใหม่หากเลือก 1060 ก็ควรเลือก psu ราคาราวๆ 2000-2500+

                        หากเลือก 480 หรือ 580 ก็ควรเลือก psu ราคาราวๆ 3000-3500+

                        น่าจะประมาณนี้

                        แต่หากเป็นการอัพเกรด และมี psu ของเดิมมีคุณภาพเพียงพออยู่แล้ว ก็ไม่ใช่เรื่องที่จะต้องมาใส่ใจกับประเด็นค่าไฟแล้วครับผม

                        ตรงกันข้ามบางท่านเครื่องอาจใช้ psu เกรดกลางๆ ถ้าจะเล่นการ์ดที่กินพลังงานสูงก็ควรตระหนักเรื่องการกินพลังงานของการ์ดด้วย

                        สรุป ต่างคน ต่างวาระ มันก็ควรจะต่างประเด็น ท่าน จขกท มี psu ที่มีคุณภาพอยู่แล้ว ไม่ใช่ประเด็นที่ท่านต้องคิดแล้วครับท่าน

                        Comment


                        • #13
                          ปกติถ้าเล่นตามบ้านมันก็ไม่มีปัญหาหรอก ต่อให้กินเท่าไหรมันก็ไม่สำคัญ แต่ถ้าอยู่หอมันก็ต้องติดหน่อยเพราะค่าไฟหอมันแพง

                          Comment


                          • #14
                            Originally posted by RuBikPlus View Post
                            ซื้อการ์ดจอตัวกลางๆต่อไฟเพิ่มยังไงก็ควรเปลี่ยน PSU อยู่แล้วครับไม่ว่าการ์ดจอค่ายไหน

                            จะประหยัดไฟยังไงถ้าการ์ดจอราคาตัวละ5-6000ขึ้น จะมีซักกี่คนที่กล้าเสี่ยงใช้กับPSUติดเคสหรือของโนเนมถูกๆครับ
                            เราไม่ได้พูดถึงPSU ติดเคสกันนะครับ แต่พูดถึงPSU เกรดกลางๆ นี่คือราวๆ2-3พันครับ เกรดสูงกว่านั้นคือ 3-4พันขึ้นไป หรือแพงกว่า watt ละ 5บาท

                            มีการคำนวณคร่าวๆว่าถ้าใช้งานตลอดปี หลายๆที่จะเฉลี่ยว่ามีการ degrade ลงราวๆ 20% ต่อปี หมายความว่า ซื้อ650watt มาปีนี้ ปีหน้าอาจจ่ายได้แค่ 520watt ปีที่สามได้แค่ 416wat .แต่พวกเกรดดีๆ จะลดน้อยกว่านั้น

                            โดยส่วนตัวเคยเจอ PSU เกรดกลาง มือสองหมดประกันแล้ว จ่ายไฟได้แค่ 60% ของที่เขียนไว้หน้ากล่อง PSU 1050watt เลยนะครับ แต่ราคามือหนึ่งถูกกว่าwatt ละ5บาท(ถือเป็นเกรดกลางๆ) เอามาต่อ R9-290CF แล้วดับ ลองไล่ไฟดู จ่ายได้ไม่เกิน600watt ในขณะที่ R9-290CF full load รวม cpu และชุดน้ำ มันกินไฟเกือบๆ 700watt ตอนหลังเพื่อความมั่นใจ เลยซื้อแต่มือหนึ่ง และหนีไปเล่นพวก watt ละ6-7บาทเลย)

                            เกรดกลางๆใช้ไปสักสองสามปี ก็จ่ายไฟได้น้อยลง เจอการ์ดจอโหดๆมีสิทธิ์แต๊บได้เลย(ยุค R9-280x,R9-290 เหมิืองแตก ราคามือสองถูกๆ) กระทู้มีมาโดยตลอด

                            ยิ่งตอนนี้การ์ดบางรุ่น ออกย้อมแมวแล้วดันกินไฟเพิ่มจนทะลุ 200watt กันอีกแล้ว ก็ต้องเติือนๆกัน
                            Last edited by Fourpoint; 20 Apr 2017, 18:27:12.

                            Comment


                            • #15
                              ใช้ไฟน้อยผมซีเรียสเหมือนรถยนต์ cc มากกว่า กินน้ำมันมากกว่า ใช้ไฟเยอะ มันหมายถึงดึงพลังงาน power supply ไปเยอะ กินไฟเยอะ มันพ่วงมาด้วย ความร้อนที่ไม่จำเป็น ที่มันคายออกมาด้วย คอมผมตั้งหลังจอ ไอความร้อนพุ่งใส่หน้า ก็เลยซีเรียส ค่าไฟ ก็ส่วนหนึ่งไม่อยากให้มันกินไฟเท่าเปิดแอร์ เห็นมิเตอร์ไฟหมุนไวๆ แล้วใจมันหวิวๆ ประสิทธิผลกับประสิทธิภาพต้องไปด้วยกัน ไม่ใช่กินไฟแต่การ์ดไม่แรง ยังงี้จะซีเรียสมาก ปล.ไฟมิเตอร์ผมหน่วยละ 8 บาท เล่นแบบโอเวอร์คล็อคนี่เป็นลม

                              Comment

                              Working...
                              X