Una función lógica llamada \ $ defragment (n) \ $ recibe como entrada \ $ n \ $ bits, \ $ d [0], ..., d [n-1] \ $, y \ $ n \ $ flags, \ $ v [0], ..., v [n-1] \ $, indicando si la entrada es válida. La función devuelve solo los bits que son válidos, según su orden, \ $ \, y [0], ..., y [n-1] \ $. En caso de que la cantidad de bits válidos, \ $ k \ $, sea menor que \ $ n \ $, los \ $ y's \ $ restantes se asignan \ $ "don't \, care" \ $. Se adjunta un ejemplo de desfragmentación (4).
Primero me pidieron que escribiera la tabla de verdad para desfragmentar (2), luego su SOP, luego intente y evalúe su costo y demora según su expresión recursiva que se espera que determine.
¿Se adjuntan los mapas de Karanugh y los SOP, correcto?