Ahora mismo estoy combinando la literatura de ingeniería eléctrica en el tipo de estrategias empleadas para producir de manera confiable sistemas altamente complejos pero también extremadamente frágiles, como DRAM, donde tiene una gran variedad de millones de componentes y donde un solo fallo puede bloquearse. Todo el sistema.
Parece que una estrategia común que se emplea es la fabricación de un sistema mucho más grande, y luego la desactivación selectiva de filas / columnas dañadas utilizando fusibles configurables. He leído [1] que (a partir de 2008) ningún módulo DRAM sale del funcionamiento de la línea, y que para los módulos DDR3 de 1GB, con todas las tecnologías de reparación implementadas, el rendimiento general va de ~ 0% a alrededor del 70% .
Sin embargo, eso es solo un punto de datos. Lo que me pregunto es, ¿es esto algo que se anuncia en el campo? ¿Existe una fuente decente para discutir la mejora en el rendimiento en comparación con el SoA? Tengo fuentes como esta [2], que hacen un trabajo decente al analizar el rendimiento del razonamiento de los primeros principios, pero eso es 1991, y imagino / espero que las cosas estén mejor ahora.
Además, ¿el uso de filas / columnas redundantes todavía se emplea incluso hoy en día? ¿Cuánto espacio de placa adicional requiere esta tecnología de redundancia?
También he estado buscando en otros sistemas paralelos como pantallas TFT. Un colega mencionó que, en un momento dado, a Samsung le resultó más barato fabricar pantallas rotas y luego repararlas en lugar de mejorar su proceso a un rendimiento aceptable. Todavía tengo que encontrar una fuente decente sobre esto, sin embargo.
Refs
[1]: Gutmann, Ronald J, et al. Wafer Level 3-d Ics Process Technology. Nueva York: Springer, 2008. [2]: Horiguchi, Masahi, et al. "Una técnica de redundancia flexible para DRAM de alta densidad". Circuitos de estado sólido, IEEE Journal of 26.1 (1991): 12-17.