A mi entender, tanto la canalización como el almacenamiento en caché hacen uso de la memoria para reducir la cantidad de hardware inactivo.
Estoy considerando un proyecto que tiene múltiples flujos de datos de entrada con una velocidad de reloj lenta, que se transmiten a los procesadores de datos a una velocidad de reloj más alta utilizando un núcleo de FIFO IP asíncrono.
Cada procesador de datos se asigna a múltiples flujos de datos, pero no tiene acceso a los flujos de datos de otros procesadores de datos.
¿Esto se llama almacenamiento en caché o canalización? (Estoy para el almacenamiento en caché, pero me gustaría estar seguro) ...