¿Por qué las tarjetas gráficas actuales solo usan modelos de memoria DDR3 o DDR5 pero no muchas tarjetas gráficas usan memoria DDR4? Por favor dé algunos consejos de expertos en hardware, lo mejor es dar un
Tan pronto como vi el título, sentí que el autor es una persona técnica. Los estafadores comunes probablemente no satisfarán su deseo de conocimiento. Simplemente publique los archivos técnicos y podrá tomarse su tiempo. Espero que ayude.
El siguiente es el contenido reproducido:
GDDR3: el rey de la generación GDDR3 se deriva de la tecnología DDR2
Independientemente de GDDR o GDDR2, porque no hay Diferencia técnica con DDR/DDR2 Hay una gran diferencia, por lo que al final GDDR no es mucho más alto que DDR en términos de frecuencia. Después de experimentar el fracaso de GDDR2, los dos principales gigantes de los gráficos, NVIDIA y ATI, se sintieron cada vez más frustrados con el lento proceso de establecimiento de estándares de la organización JEDEC. Creían que la memoria gráfica que formularon no podía adaptarse al producto de ritmo rápido. ciclo de actualización de GPU, por lo que el personal de NVIDIA y ATI participó activamente en la organización JEDEC para acelerar la redacción y formulación de estándares de memoria de video.
Ambas partes coincidieron en que la memoria de vídeo y la memoria interna son completamente diferentes en términos de aplicaciones de almacenamiento de datos. Cuando la frecuencia del núcleo de la memoria (frecuencia de actualización del condensador) no se puede aumentar, es muy difícil simplemente aumentar el I/. O frecuencia para obtener un gran ancho de banda Realidad. Por lo tanto, debe haber una interfaz de E/S redefinida para entornos punto a punto de alta velocidad. Así nació GDDR3, la primera memoria verdaderamente diseñada íntegramente para GPU.
GDDR3, al igual que GDDR2/DDR2, es una arquitectura de captación previa de 4 bits que mejora principalmente las deficiencias del alto consumo de energía y la generación de calor de GDDR2, y mejora la eficiencia de la transmisión para aliviar el impacto negativo de la alta latencia. DQS punto a punto, sin necesidad de esperar lectura y escritura
GDDR2 tiene un solo pulso de selección de datos (DQS), que es único y bidireccional, mientras que GDDR3 tiene dos DQS independientes para lectura y escritura. y es un diseño punto a punto. La ventaja de esto es que si escribe inmediatamente después de la lectura, no tiene que esperar a que cambie la dirección de DQS, logrando así un cambio rápido entre las operaciones de lectura y escritura.
En comparación con GDDR2/DDR2, la acción de conmutación de lectura y escritura de GDDR3 puede tomar un ciclo de reloj menos. Si necesita leer y escribir datos en un bloque continuo al mismo tiempo, la velocidad de GDDR3 aumentará. ser dos veces más rápido que GDDR2.
Debido a las características de la propia unidad de almacenamiento, el banco lógico de la partícula de memoria no puede leer y escribir datos al mismo tiempo. No existe el "full duplex", pero sí esta mejora en GDDR3. Hace posible la lectura y escritura secuencial. El caché de la GPU en sí es muy pequeño y el intercambio de datos con la memoria de video es extremadamente frecuente y las operaciones de lectura y escritura se intercalan. Por lo tanto, el DQS diseñado por GDDR3 punto a punto puede aumentar en gran medida la eficiencia del almacenamiento. memoria de vídeo. Pero para la CPU, el cambio de lectura y escritura no es tan frecuente como para la GPU, y la CPU tiene un caché de segundo y tercer nivel de gran capacidad, por lo que el diseño GDDR3 no puede mejorar en gran medida el ancho de banda de la memoria y no se ha introducido en la próxima generación de DDR3.
Al mismo tiempo, GDDR3 también ha modificado el circuito de control de E/S y la resistencia de terminación. Ya no utiliza el receptor "Push Pull" de GDDR2, sino que lo cambia a un método de lógica abierta virtual (. Pseudo Open Drain Logic), y simplifica el procesamiento de datos transfiriendo todas las señales de datos trifásicos al circuito local, minimizando la corriente CC y solo consume energía cuando la lógica BAJA se mueve al bus, lo que facilita el consumo de energía y La generación de calor está bien controlada.
En realidad, no es ningún secreto el hecho de que la frecuencia de GDDR3 puede alcanzar un nivel tan alto. Se basa en la mejora continua del proceso para aumentar violentamente la frecuencia. Los jugadores mayores deben saber que cuando GDDR3 debutó en 2004, la frecuencia de memoria del 6600GT era de solo 1 GHz, que no era superior a la de GDDR2. Cinco años después, GDDR3 subió de 1 GHz a 2 GHz o incluso 2,5 GHz, y su vitalidad se perdió. . continuar.
Después de comprender el principio y la tecnología de GDDR3, echemos un vistazo a la realidad.
GDDR3 es similar a GDDR1 y tiene dos formas de empaque:
● empaque 144Ball MBGA, para ser compatible con GDDR y GDDR2
El GDDR3 original usaba un empaque 144Ball MBGA, que es diferente de GDDR y GDDR1. La primera versión de GDDR2 es exactamente igual y tiene una apariencia cuadrada. Las propiedades eléctricas de las tres son similares. Las GPU que admiten GDDR3 también pueden usar memoria de video GDDR con solo algunos ajustes en la PCB y el circuito. .
La GDDR3 empaquetada en 144Ball solo tiene una especificación de 256M×32Bit, por lo que 8 memorias gráficas para formar 256MB 256Bit, o 4 memorias gráficas para formar 128MB 128Bit eran la corriente principal en ese momento. 5700Ultra usa GDDR3 en lugar de GDDR2 por primera vez.
GDDR3 en el paquete 144Ball tiene principalmente dos velocidades: 2,0 ns (1000 MHz) y 1,6 ns (1250 MHz). El rendimiento de 1,4 ns no es alto y la salida es muy pequeña. La frecuencia máxima se detiene en 1400 MHz. Ha sido ampliamente utilizado por 7800GTX/GT, 6800GS, 6600GT, X850/X800/X700 y otras tarjetas gráficas. Dado que el paquete 144Ball y el circuito PCB limitaron su aumento de frecuencia, GDDR3 pronto cambió al paquete 136Ball FBGA con mejor rendimiento eléctrico.
● Paquete 136Ball FBGA, la capacidad de frecuencia está aumentando
Para mejorar el rendimiento eléctrico y el nivel de protección ambiental, a partir de 2005, GDDR3 comenzó a utilizar el nuevo paquete 136Ball FBGA, y de manera uniforme Se utilizó un proceso de encapsulación de plomo inalámbrico. El nuevo paquete requiere que se rediseñe la PCB de la tarjeta gráfica, pero también allana el camino para el despegue de GDDR3.
Las ventajas de la GDDR3 empaquetada con 136Ball son las siguientes: las especificaciones ya no se limitan a 8M×32Bit, 16M×32Bit se ha convertido en la corriente principal y actualmente 32M×32Bit se han utilizado ampliamente con el avance de; tecnología de fabricación, el voltaje nominal ha aumentado de 2,0 V a 1,8 V, pero algunas partículas de alta frecuencia se pueden presurizar adecuadamente la velocidad comienza desde 1,4 ns y se desarrolla a 0,8 ns, 0,7 ns después de 1,2 ns, 1,1 ns, 1.0ns, y la velocidad más rápida puede superar los 2500 MHz, pero esto se debe a la latencia. Afortunadamente, las GPU no son demasiado sensibles a la latencia;
Cuando la frecuencia de GDDR3 alcanzó los 2000 MHz por primera vez, Mucha gente pensó que no estaba lejos del límite, por lo que se apresuraron a formular la especificación GDDR4 con anticipación, pero no esperaba que con los esfuerzos de los fabricantes de DRAM y el soporte de nuevos procesos, la vida útil de GDDR3 se hubiera extendido. Los modelos de 0,8 ns y 0,7 ns se han producido en masa uno tras otro, y las partículas de 32 M × 32 bits con mayor capacidad también se han generalizado, lo que básicamente puede satisfacer las necesidades requeridas por todos los de gama alta, alta y baja. Tarjetas gráficas.
En ese momento, la GDDR de 2,2 ns podía alcanzar hasta 900 MHz, y la frecuencia central y la frecuencia de E/S se detenían en 450 MHz. Después de cinco años de desarrollo, GDDR3 finalmente logró avances en la frecuencia central y la frecuencia de E/S con su nuevo proceso. La frecuencia central puede alcanzar más de 600 MHz y la frecuencia de E/S supera los 1200 MHz. En este momento, la frecuencia de E/S es excesivamente alta. se ha convertido en un nuevo problema.
GDDR3 utiliza la tecnología de captación previa de 4 bits de DDR2, por lo que la memoria de vídeo que utiliza la tecnología de captación previa de 8 bits de DDR3 solo puede denominarse GDDR4 en secuencia. GDDR4 se desarrolla sobre la base de GDDR3. Hereda las dos características técnicas principales de GDDR3, pero el núcleo utiliza la tecnología de captación previa de 8 bits de DDR3 y agrega algunas tecnologías nuevas para aumentar la frecuencia.
● Características técnicas de GDDR4: utilice la tecnología de captación previa de 8 bits de DDR3 para lograr un mayor ancho de banda a una frecuencia central más baja, pero el retraso aumenta. Utilice la tecnología de inversión del bus de datos (DBI, inversión del bus de datos, a continuación) ( Introducción detallada), mejora la precisión de los datos y reduce el consumo de energía; la línea de dirección es solo la mitad de GDDR3, y las líneas adicionales se usan para alimentación y conexión a tierra, lo que es beneficioso para aumentar la frecuencia, pero conduce a un mayor retraso al usar Multi-Preámbulo; tecnología para superar la limitación de ráfagas en GDDR3, el rendimiento al leer una pequeña cantidad de datos de direcciones consecutivas mejora enormemente; el voltaje se reduce de 1,8 V a 1,5 V; el consumo de energía de la misma frecuencia se reduce en un 75 %; y el consumo de energía de 2400MHz GDDR4 es de solo 2000MHz GDDR3. La mitad de eso adopta el paquete 136Ball FBGA, un solo 32 bits, compatible con versiones anteriores de GDDR3;
Debido al uso de tecnología de captación previa de 8 bits, la frecuencia central de GDDR4 ( es decir, la frecuencia de actualización del capacitor) a la misma frecuencia es solo la mitad de la de GDDR3; en teoría, la frecuencia máxima de GDDR4 puede alcanzar el doble que la de GDDR3. Sin embargo, vale la pena señalar que, aunque la frecuencia central se reduce a la mitad mediante la tecnología de captación previa de 8 bits, las frecuencias de E/S de GDDR4 y GDDR3 son exactamente las mismas, por lo que el cuello de botella de la mejora de frecuencia de GDDR4 radica en la frecuencia de E/S en lugar de la frecuencia central.
Debido a limitaciones en los procesos de fabricación y niveles técnicos, aunque Samsung afirmó oficialmente haber producido GDDR4 por encima de 3 GHz, el GDDR4 real enviado fue solo de 2 GHz-2,5 GHz. Desde entonces, GDDR3 con tecnología mejorada también ha empatado esto. . una frecuencia. En la misma frecuencia, aunque GDDR4 consume menos energía y calor que GDDR3, sufre de una alta latencia y un rendimiento ligeramente más débil, junto con un alto costo y un bajo rendimiento, no es sorprendente que GDDR4 haya quedado fuera.
● Razones no técnicas que llevaron al fallo de GDDR4
GDDR3 es un estándar de memoria de vídeo desarrollado conjuntamente por NVIDIA y ATI después de participar en la organización JEDEC, y GDDR4 fue desarrollado por Ambas partes durante el proceso de desarrollo del estándar tuvieron diferencias importantes. NVIDIA es más conservadora y cree que la tecnología de captación previa de 4 bits DDR2 debe mantenerse sin cambios y continuar mejorando el controlador de E/S para aumentar la frecuencia, mientras que ATI es más radical y planea utilizar directamente la tecnología de captación previa de 8 bits DDR3.
El resultado de la disputa entre las dos partes fue que ganó ATI, que es muy respetada en la organización JEDEC (se dice que ATI tiene un alto ejecutivo que ocupa un puesto importante en JEDEC), mientras que NVIDIA dejó claro que no es compatible con GDDR4. Por lo tanto, GDDR4 en realidad fue planeado por ATI. Sin embargo, si no recibiera soporte de NVIDIA, GDDR4 perdería inmediatamente más del 60% del mercado. Como resultado, las fábricas de DRAM no se atreverían a ponerlo en producción precipitadamente.
Al final, sólo Samsung produjo una pequeña cantidad de memoria de vídeo GDDR4, y los demás estaban esperando y mirando. Por supuesto, otros fabricantes de DRAM no están inactivos. Han invertido toda su energía en explorar el potencial de GDDR3, por lo que hemos visto que la frecuencia de GDDR3 aumenta constantemente. tiempo Varias generaciones de tarjetas A no tienen ventajas de rendimiento y GDDR4 es, naturalmente, un callejón sin salida.
Solo ATI ha producido tarjetas gráficas equipadas con GDDR4. Aunque el número no es grande, abarca tres generaciones de productos: iguales. NVIDIA abandonó decisivamente GDDR2 después de encontrarse con Waterloo, mientras que a ATI le resultó difícil renunciar a GDDR4. Se ha utilizado en tres generaciones de productos en tres años, pero siempre ha sido no convencional.
El fracaso de GDDR4 no se debe a razones técnicas. En comparación con el GDDR2 del año, es mucho más maduro. La razón principal por la que no ha sido promocionado es que sus oponentes son demasiado fuertes: el oponente de ATI. NVIDIA es muy poderosa y el oponente de GDDR4, GDDR3, tiene una gran vitalidad.
Incluso con el uso de la tecnología de captación previa de 8 bits, GDDR4 todavía no tiene una brecha de frecuencia con GDDR3 porque el cuello de botella está en el controlador de E/S en lugar del núcleo, y GDDR5 se usa para resolver este problema. embotellamiento.
● GDDR5: cómo se logra la frecuencia aterradora
Al igual que GDDR4, GDDR5 utiliza la tecnología de captación previa de 8 bits de DDR3. La frecuencia central obviamente no es un cuello de botella. ¿O frecuencia? Esa es la máxima prioridad. Sin embargo, GDDR5 no duplica la frecuencia de E/S, sino que utiliza dos buses DQ paralelos para lograr el doble de ancho de banda de la interfaz.
El resultado del bus DQ dual es que el número de pines de GDDR5 ha aumentado significativamente de 136Ball de GDDR3/4 a 170Ball, y el controlador de memoria GPU correspondiente también necesita ser rediseñado. La memoria de video GDDR5 tiene hasta 16 bancos físicos. Estos bancos están divididos en cuatro grupos. Los buses DQ duales controlan de forma cruzada los cuatro grupos de bancos, logrando operaciones de lectura y escritura en tiempo real, aumentando la velocidad de transferencia de datos a más de 4 GHz de una sola vez. ¡redada!
En el pasado, los buses de datos de GDDR1/2/3/4 y DDR1/2/3 eran todos de tecnología DDR (los datos se transmitían una vez en el flanco ascendente y descendente a través del reloj diferencial). y la frecuencia nominal oficial era X2. Es la tasa de transferencia de datos, que es lo que solemos llamar frecuencia equivalente. GDDR5 es diferente. Tiene dos buses de datos, que son equivalentes a la tecnología QDR de Rambus, por lo que la frecuencia nominal oficial X4 es la velocidad de transferencia de datos. Por ejemplo, la frecuencia de memoria oficial del HD4870 es 900MHz, pero todos están acostumbrados a llamarla 3600MHz.
● El fracaso es la madre del éxito, arriésguese a usar GDDR5 para ayudar a RV770 a desafiar a GTX200
El fracaso de GDDR4 no impidió que ATI siguiera adelante después de darse cuenta del cuello de botella de la mejora de la frecuencia de GDDR4. , GDDR5 La formulación del borrador se incluyó en la agenda y el personal técnico de ATI y NVIDIA se reunió para lanzar una segunda cooperación para discutir planes importantes. GDDR5 ha absorbido muchas ventajas de sus predecesores, de los cuales se puede decir que son los mejores y descartó la escoria. Ya no hay muchos conflictos entre las dos partes en términos de mejoras de E/S.
Los problemas técnicos no son difíciles de resolver, pero los más difíciles son el tiempo y el progreso. ATI se arriesgó a utilizar un controlador de memoria de vídeo de 512 bits en el R600 para aumentar el ancho de banda de la memoria, pero falló estrepitosamente, por lo que el RV670 tuvo que volver a 256 bits, lo que provocó que el rendimiento permaneciera sin cambios. GDDR4 no tiene ventaja de frecuencia sobre GDDR3, por lo que ATI necesita urgentemente que GDDR5 se ponga en producción rápidamente para satisfacer las necesidades de la nueva generación de GPU. RV770 solo tiene 256 bits y necesita urgentemente soporte de memoria de alta frecuencia.
Su rival NVIDIA, por supuesto, está muy interesada en GDDR5, pero no tiene ninguna prisa. La conservadora NVIDIA decidió quedarse con GDDR3. El núcleo GTX200 utiliza un controlador de memoria de 512 bits para aumentar el ancho de banda. En comparación con el bus de anillo del R600, el bus cruzado de NVIDIA, que se ha desarrollado paso a paso de 256 bits a 384 bits y 512 bits, es obviamente más maduro.
Con 256Bit frente a 512Bit, ATI sólo podía poner todos sus chips en GDDR5. Así que antes de que el estándar GDDR5 estuviera completamente establecido, ATI ya estaba probando el rendimiento intensamente e instando a las fábricas de DRAM a ponerlo en producción. Se puede decir que GDDR5 también es un bebé prematuro como GDDR2/4, pero el fracaso es la madre del éxito. Con el respaldo de especificaciones técnicas y procesos de fabricación completos, GDDR5 ha impresionado a la gente tan pronto como nació.
Con GDDR5 duplicando la velocidad de transferencia de datos, el HD4870 eclipsa al GTX260 de 448 bits con 256 Bits, lo que obliga a NVIDIA a contraatacar recortando precios, actualizando especificaciones, mejorando procesos y muchos otros medios. El rendimiento del HD4770 de 128 bits también supera al 9600GT de 256 bits y se acerca al del 9800GT.