เมมโมรี่บนการ์ดจอมีสองหน้าที่คับ
1. เก็บภาพที่ถูกแสดงขึ้นจอ
อันนี้ต้องการหน่วยความจำให้เพียงพอกับความละเอียด เท่ากับจุดสีบนจอนั่นเอง(800x600,1024x768,1280x1024,1600x1200,1920x1080, หรือ 2048x1536) แต่ต้องคูณด้วยระดับความลึกสีที่แสดง (256 ระดับ เท่ากับ 8-bit, 16-bit, 24-bit, หรือ 32-bit) ต้องการโหมดใดต้องมีเมมโมรี่ให้พอสำหรับโหมดนั้นๆ
2. เก็บภาพที่จะถูกนำแสดงขึ้นจอ
ยิ่งใหญ่ยิ่งทำงานได้เร็ว (ภาพไหลลื่น) โดยเฉพาะเกมส์ที่คอมพิวเตอร์สร้างฉากขึ้นจากรูปกราฟฟิกที่เก็บไว้ในเมมโมรี่ ทุกอูณของภาพมาจากข้อมูลบนเมมโมรี่ GDDR3 บนการ์ดจอทำงานได้เร็วกว่าเมมโมรี่ของเครื่องหลายสิบเท่า แต่มีราคาแพงกว่ามากเช่นกัน
ถ้าถามว่าจอ 46" ใช้เมมโมรี่เท่าไหร่ คงต้องถามกลับว่าเล่นที่ความละเอียดและระดับสีใดด้วยคับ ถ้าเอามาดูหนัง HiDef 1280x720 (720p) หรือ 1920x1080 (1080p) ซึ่งมาตรฐานเขาใช้แค่ 8-bit เอง ก็คำนวนได้ที่ 1920x1080 x 8-bit แล้วหาร 8 อีกทีให้หน่วยเป็น byte เท่ากับ 2,073,600 หรือราวๆ 2MB เอง และถ้าต้องมี 30 เฟรมเพื่อการ play back ก็เป็น 60MB พอ (นี่คิดแบบว่าคอมพิวเตอรมันช้ามาก จริงๆเมื่อเฟรมแรกถูกส่งภาพออกไปก็สามารถนำกลับมาใช้เก็บเฟรมที่ 31 ได้เลย)
สูตรตกไปหน่อยต้อง ต้องคูณอีก 3 สำหรับสี RGB สีละ 8 bit แยกกันรวมเป็น 60MB x 3 = 180MB ตัวเลขนี้แบบว่าเวอร์ไปจริงๆ
สำหรับ 10-bit หรือ 12-bit ที่ใช้ในอุปกรณ์บันทึกภาพเขาใช้ในเรื่อง noise filtering และ signal processing อื่นๆ แต่ก็มีคนบอกไว้ว่าถ้าจอภาพใหญ่เม็ดสีมันใหญ่ การใช้ 10-bit color depth จะดูดีกว่า ส่วนพวก bit depth สูงอย่าง 24, 32, 48 นั้นเขาใช้ในงานสิ่งพิมพ์และภาพนิ่งกันคับ
คิดว่า 256MB เกินพอสำหรับดูหนังจากทฤษฎีที่ว่ามา แต่ว่าของจริงต้องไปดูด้วยตาหรืออ่านจากริวิวประกอบด้วย ถ้าจะเอามาเล่นเกมส์ยิ่งเยอะยิ่งดี
