Editar: para algún contexto
Estoy trabajando en un proyecto LTE y me preguntaba si alguien con más conocimientos de los que podría responder a esta pregunta. Dada la primera tabla, podemos ver la relación entre MCS (relacionado con la calidad del canal) y el índice TBS (Tamaño del bloque de transporte), y el orden de modulación que no es muy importante en este momento. Mirando a MCS 8, por ejemplo, tomaremos el índice TBS a la derecha de la primera tabla, iremos a nuestra segunda tabla y veremos cuántos bits podemos encajar en una cierta cantidad de bloques de recursos. En MCS 8, vemos que 1 bloque de recursos (RB) puede caber hasta 120 bits, y 2 puede caber hasta 256. Se supone que esta tabla tiene alguna relación tal que: Si reduce a la mitad el MCS y duplica la cantidad de bloques de recursos , deberías tener una cantidad equivalente de bits.
Esto significa que si la calidad de su canal se degrada a la mitad (por ejemplo, lo mantendremos simple) todo lo que debe hacer es darle a cada usuario un RB adicional para satisfacer cualquier asignación que tenga.
Un ejemplo real: comenzando en MCS 8, a 1 RB tenemos 120 bits. Si bajamos a MCS 4 (la mitad de 8) tendremos que enviar el doble de RB (dos RB), lo que podemos confirmar en la tabla como de 120 bits (equivalente a MCS 8 a 1 RB).
Mi pregunta es ¿por qué diablos es MCS 6, 1 RB 328 bits? No tiene mucho sentido para un canal de menor calidad que el MCS 7, 8, 9 ... tener más bits en el primer RB. También esto rompe la tendencia general que acabo de describir. ¿Alguien sabe por qué ocurre esto? Además, ¿cómo es posible tener más bits en un bloque de recursos que dos? ¿Son estos bits imaginarios que desaparecen de alguna manera?