¿Las APU de NVIDIA Tegra SoC y AMD Fusion evitan el cuello de botella de transferencia de memoria de GPU-CPU?

0

La principal limitación en la programación heterogénea de CPU + GPU parece ser la transferencia lenta de memoria a través del bus PCI-e cuando los datos se deben pasar de un lado a otro entre el dispositivo y el host. He leído que el objetivo de Fusion APU de AMD es resolver este problema. ¿Fusion APU intenta resolver este problema haciendo que la GPU y la CPU compartan una región de memoria física común? Y lo que realmente me pregunto es si el Tegra K1 (o X1) también intenta resolver este problema haciendo que la CPU y la GPU compartan una región de memoria física común, por lo que no es necesario realizar un cudaMemcpy.

    
pregunta Cosmo Kramer

1 respuesta

1

Bueno, sé que Intel resolvió este problema colocando la GPU en el mismo complejo de conmutación NUMA que los núcleos de la CPU. Esto está implícito en las especificaciones de Intel Xeon E3-12x0v3 / 12x1v3 que indican las Xeon E3-1200s con sockets compatibles con i7 pero sin GPU, el ancho de banda de memoria que fue utilizado por GPU en i7s y E3-12x5v3 / 12x6v3 está disponible para la CPU núcleos.

Esto sugiere que la memoria caché L2 y L3 compartida en los procesadores Intel está disponible para los núcleos de CPU y para los núcleos de GPU incorporados. Entonces, siempre que los datos se ajusten al caché, no se necesita acceso a la memoria principal.

    
respondido por el Maxthon Chan

Lea otras preguntas en las etiquetas