คือว่า ผมใช้ การ์ดจอ vram 2 gb ทำงานจะกิน
1.4-1.6 Gb ประมาณ 70-80%
แล้วได้มีโอกาสเปลี่ยนการ์ดจอ เป็น vram 4 gb เปลี่ยนแค่การ์ดจอนะครับ ไม่ได้ยุ่งอุปกรณ์อื่นเลย แล้วมาทำงานแบบเดียวกัน มันกิน vram ไป 3.0-3.2 Gb
ประมาณ 77-85% คือผมสงสัยมากครับว่า ทำไม vram ที่มีมากขึ้นถึงยังกิน vram เท่ากับตอนใส่การ์ดจอ 2 gb ทั่งๆที่มันควรจะกินน้อยลง
เหมือนสมมุติแรมผมตอนนี้มี 16กิก เปิดไว้เฉยๆ กินแรมไป 3 กิก คือใช้ไปประมาณ 20% ถ้าผมเพื่มแรม เป็น 32กิก มันก็ควรจะกิน แรม 3 กิกเท่าเดิม แต่เปอร์เซ็นมันควรจะน้อยลง เป็น 10 เปอร์
หลักการนี้ใช้กับ vram ไม่ได้เหรอครับ
1.4-1.6 Gb ประมาณ 70-80%
แล้วได้มีโอกาสเปลี่ยนการ์ดจอ เป็น vram 4 gb เปลี่ยนแค่การ์ดจอนะครับ ไม่ได้ยุ่งอุปกรณ์อื่นเลย แล้วมาทำงานแบบเดียวกัน มันกิน vram ไป 3.0-3.2 Gb
ประมาณ 77-85% คือผมสงสัยมากครับว่า ทำไม vram ที่มีมากขึ้นถึงยังกิน vram เท่ากับตอนใส่การ์ดจอ 2 gb ทั่งๆที่มันควรจะกินน้อยลง
เหมือนสมมุติแรมผมตอนนี้มี 16กิก เปิดไว้เฉยๆ กินแรมไป 3 กิก คือใช้ไปประมาณ 20% ถ้าผมเพื่มแรม เป็น 32กิก มันก็ควรจะกิน แรม 3 กิกเท่าเดิม แต่เปอร์เซ็นมันควรจะน้อยลง เป็น 10 เปอร์
หลักการนี้ใช้กับ vram ไม่ได้เหรอครับ
Comment