Es, estimaría, una división 70/30 entre la limitación de hardware y software.
El punto es que, para tomar una foto, el teléfono tiene tiempo de dejar que todos los píxeles registren un buen valor y luego extraer toda la información y comprimirla para luego almacenarla.
Cuando haces una película, ha tomar 25, 26, 30, 50 o 60 "imágenes" por segundo, o de lo contrario no será una película decente. Así que eso es mucho más estresante en la comunicación, para la cual tienes que diseñar, pero también significa mucho más procesamiento para poder almacenar todas esas imágenes a tiempo.
Por lo tanto, en un teléfono es posible que solo lo hagan más fácil al no usar la mayoría de los píxeles en el hardware, por diseño, al grabar películas. Si bien es posible que parte del hardware aún admita una resolución más alta en esas tasas de fotogramas, tal vez el chip que tiene que procesar esa imagen no lo haga, o simplemente es demasiado caro hacer que el software o el firmware hagan frente a tanta información. (Inserte un rant sobre $ 600 de los teléfonos Samsung, HTC y Apple que contienen solo $ 50 en hardware y $ 5 en software)
En las cámaras de gama alta, a menudo lo hacen un poco diferente, ya que el costo de un chip mejor es muy pequeño en comparación con las expectativas del cliente. Por lo general, limitan el video a un cierto número, porque es el máximo estándar en ese momento y el diseño para ese número. Luego usan varios píxeles físicos para obtener una mejor imagen, incluso con poca luz. Luego también puede ajustar la resolución y la velocidad de fotogramas un poco más para obtener más luz en lugares bastante oscuros, pero, por supuesto, notará que recibe una mayor resolución y / o una resolución más baja.