¿Por qué la conexión en serie es más rápida que la conexión en paralelo? [duplicar]

13

Como desarrollador de software, el concepto de procesamiento paralelo generalmente significaba un procesamiento más rápido porque significaba que las cosas no tienen que esperar a que los otros procesos terminen si no es necesario.

Entonces, ¿por qué la conexión serial se considera (posiblemente) como el futuro mientras que la paralela es una cosa del pasado?

    
pregunta M. A. Kishawy

4 respuestas

15

¿Por qué la conexión en serie es más rápida que la conexión en paralelo?

Estás haciendo suposiciones erróneas. Tome cualquier conexión en serie. Ahora coloca 10 en paralelo y llama a eso la versión paralela. ¿Cuál es más rápido?

Entonces, ¿por qué la conexión serial se considera el futuro mientras que la paralela es una cosa del pasado?

Dice quién?

Las conexiones paralelas todavía están en todas partes. Para una conexión de corta distancia rápida, los beats paralelos en serie en cualquier momento Por ejemplo, la interfaz entre una CPU y su RAM.

Para larga distancia, la mayoría de las conexiones son en serie porque el costo de varios cables es mayor. Pero en fibra óptica podemos usar diferentes señales de longitud de onda a través de la misma fibra. Podrías llamarlo paralelo.

    
respondido por el Bimpelrekkie
20

El problema es mantener las señales en un bus paralelo limpias y sincronizadas con el objetivo.

Con "todo lo que tienes que hacer" en serie, puedes extraer el reloj y, como resultado, los datos. Puede ayudar creando muchas transiciones, 8b / 10b, codificación bi-fase o Manchester, hay muchos esquemas (sí, esto significa que está agregando aún más bits). Sí, absolutamente que una interfaz serie tiene que ejecutarse N veces más rápido que un bus paralelo N ancho para ser "más rápido", pero hace mucho tiempo que llegamos a ese punto.

Curiosamente, ahora tenemos buses en serie paralelos, tu pcie, tu ethernet (bueno, si ejecutas 40GigE es 4 × 10 carriles para conciertos, 100Gig es 10 × 10 para concierto o lo nuevo que viene es 4 × 25 carriles para concierto). Cada uno de estos carriles es una interfaz serial independiente que aprovecha la "velocidad serial", pero la transmisión general de los datos se divide en carga equilibrada a través de las interfaces seriales separadas, y luego se combina según sea necesario en el otro lado.

Obviamente, una interfaz en serie no puede ir más rápido que una línea de bit de un bus paralelo, todas las demás cosas se mantienen constantes. La clave es la velocidad, el enrutamiento, los cables, los conectores, etc. Mantener los bits paralelos y cumplir con la configuración y los tiempos de espera en el extremo remoto es el problema. Puedes ejecutar N veces más rápido usando una interfaz serial. Luego está la propiedad inmobiliaria de los pines a la pcboard a los conectores. Recientemente, hay un movimiento desde en lugar de subir de Ethernet de 10 gigas a 40 gigabytes usando 4 x 10 pistas de gigas, a 25 gigas por línea, por lo que un par de 25 gigas o dos parejas de 25 gigas consiguen 50 gigas en lugar de cuatro parejas de 10 gigas. Costando a medias el cobre o la fibra en los cables y en otros lugares. Ese costo marginal en las granjas de servidores fue suficiente para abandonar el camino tradicional para los estándares de la industria y salir y poner uno a un lado y extenderlo rápidamente.

Pcie también, comenzó con una o más interfaces seriales con la carga de datos balanceada. Todavía utiliza líneas seriales con la carga de datos balanceada y reincorporada, las velocidades aumentan cada generación por interfaz serial en lugar de agregar más y más pares seriales.

SATA es la versión en serie de PATA, que es un descendiente directo a IDE, no es que en serie fue más rápido, simplemente es mucho más fácil sincronizar y extraer un flujo en serie que mantener n sincronizados los bits paralelos de uno. termina con el siguiente. Y sigue siendo más fácil de transmitir y extraer incluso si el flujo en serie es por el carril de bits 16, 32, 64, o más veces más rápido que el paralelo.

    
respondido por el old_timer
15

El cambio es de "paralelo en un solo reloj" a "múltiples enlaces seriales". Por ejemplo, PCIe, donde una tarjeta puede tener "carriles" de 1x a 16x.

Hay dos factores involucrados, sesgo y tamaño.

Agregar más conectores hace que tanto el cable como sus conectores y los receptáculos de cada dispositivo sean más grandes y más caros. ¡Mire cuán grandes eran los cables de impresora Centronics y los cables SCSI de 40 pines! No vas a ver un teléfono con un conector Centronics encendido. Entonces, a medida que los dispositivos se hacen más pequeños, hay presión para interfaces más pequeñas con menos cables.

Los dispositivos también se han vuelto más rápidos con un mejor procesamiento de la señal. Así que ahora es posible tener tasas de bits mucho más altas. Sin embargo, esto tiene una desventaja para los enlaces paralelos tradicionales: skew.

Skew es la diferencia en los tiempos de llegada entre las señales de un grupo. El enlace paralelo tradicional tiene un solo reloj para todas las señales. Se supone que el reloj y las señales llegan casi al mismo tiempo. A medida que las señales se vuelven más rápidas, las pequeñas diferencias en los tiempos de llegada se vuelven más importantes. Esto significa que una conexión paralela amplia tiene una velocidad limitada: tiene que ir lo suficientemente lento para que todos los bits lleguen dentro de la misma ventana de tiempo y no se sobrescriban con el bit next que viene.

    
respondido por el pjc50
3

Wikipedia tiene un artículo con una lista de zócalos de CPU x86 por año . Compruébelo: a medida que las CPU se hacían más rápidas, sus sockets de interfaz crecían de solo 40 pines en la década de 1970 a más de 1500 pines ahora. Esto no puede explicarse solo por el ancho de la palabra: si el socket de 40 pines era suficiente para adaptarse a una CPU de 16 bits, seguramente una CPU de 64 bits con un diseño similar debería encajar en el socket de 160 pines.

La verdad es que las mejoras en el rendimiento provinieron de un acceso más rápido a la RAM, que se logra al agregar más y más líneas de datos de RAM. No es raro ver CPUs con interfaces de memoria cuádruple-DDR (256 líneas de datos en paralelo), y nadie planea reemplazar aquellas con interfaces seriales en el corto plazo.

Dicho esto, tales conexiones masivamente paralelas son muy limitadas en cuanto a la distancia de transmisión y la facilidad de uso de los conectores, por lo que no se utilizan para conectar periféricos externos o dispositivos externos. Aquí es donde las conexiones seriales realmente brillan.

    
respondido por el Dmitry Grigoryev

Lea otras preguntas en las etiquetas