¿Con qué frecuencia ocurre la "rotura de bits"?

3

Últimamente he estado pensando en la permanencia de la información y me preguntaba a qué velocidad está corrompido un poco el disco duro del disco giratorio del consumidor y ¿cuáles son algunos de los factores que aceleran o disminuyen esta velocidad? ¡Estoy sorprendido de que los programas escritos en la memoria hoy puedan deteriorarse lentamente en el tiempo debido a la memoria en descomposición! ¿Los programadores dentro de cincuenta años tendrán que dedicar tiempo a reparar o recrear las antiguas librerías subyacentes?

edit: Gracias @clabacchio por indicarme los algoritmos de corrección de errores, estos suelen tratar el problema que estoy anticipando aquí.

    
pregunta Sean Southern

4 respuestas

5

La mayoría de los productos de electrónica de consumo tienen una vida útil de unos pocos años o menos (piense en los teléfonos móviles). No puedo pensar en nada electrónico que haya sido diseñado para funcionar durante 50 años. Incluso los portadores de datos, como los CD-ROM, tienen una vida útil limitada de 10, como máximo 20 años. Los discos duros no contienen información que debería permanecer inalterada durante decenas de años.
Pero en la práctica, la vida limitada de los transportistas no es un problema. Con el progreso de la tecnología, los datos se copian varias veces a nuevos operadores durante su vida útil. Los archivos de negocios en CD-ROM se están copiando a DVD. Los DVDs serán copiados a BlueRay o su sucesor.

editar
Además, en los casos en que la integridad de los datos es superior, los datos se almacenan con códigos de corrección de errores, que pueden reparar el error ocasional. Por ejemplo, los CD-ROM utilizan códigos Reed-Solomon.

    
respondido por el stevenvh
6

Le digo a la gente (nadie escucha) que TODOS los discos duros se estrellarán, y que esto ocurre entre 10 años y 10 minutos desde que es nuevo.

Todavía no he visto uno que alcance 10 años de uso continuo, pero me he encontrado con unos 10 minutos.

Los CDs que verifiqué y que escribí hace más de 15 años generalmente aún están bien cuando los pruebo, solo cheques casuales. Los datos sobre ellos ahora son irrelevantes o se almacenan de forma redundante en otros lugares.

Si desea un archivo de más de 50 años (yo lo hago), DEBE trabajar con copias de seguridad redundantes, almacenamiento fuera del sitio y más.

El aumento de la temperatura mata los discos duros.

La marca importa. Google sabe pero no lo dirá.

La vibración no ayuda.

Cierto material de CD / DVD es mejor que otros y los principales fabricantes tienen material de archivo que afirman que tendrán una vida útil de 100 años si se almacenan como se recomienda. No te fíes de esto si te importa.

Las unidades encendidas parecen durar tan bien como las que se encienden con menos frecuencia, PERO parece probable que si tiene una unidad que SOLAMENTE se usa para copia de seguridad, durará bien si se enciende solo cuando se utiliza, pero se almacena a buena temperatura, etc. cuando está apagado ¡PERO si usa electrolíticos húmedos de aluminio, morirán MÁS RÁPIDO cuando la unidad no esté encendida! Si deseara una vida útil muy larga en el disco duro con un uso ocasional, tendría que trabajar en ello y seguir utilizando varias copias redundantes.

La copia de seguridad de 50 años tiene que sobrevivir a los peligros eléctricos estándar y la muerte del disco + incendio, robo, terremoto y muerte del operador.

El almacenamiento en línea puede ayudar, ya que pone la carga en aquellos que DEBEN saber, PERO no confían en ello. No utilice Megaupload :-). Múltiples sitios de almacenamiento en línea independientes pueden ayudar. Asegurar la verdadera independencia puede ser complicado. A medida que Google pasa a ser dueño de, er, almacenar todos los datos del mundo, puede encontrar que los proveedores A B y C también usan Google detrás de la escena.

Tengo casi 1 millón de fotos almacenadas. Me pregunto si mis bisnietos podrán ver a alguno de ellos. :-). 119,204 / 90.55 GB de ellos aquí Se han pagado 10 años por delante, PERO no hay garantía de que esté allí dentro de 10 años.

    
respondido por el Russell McMahon
3

La biblioteca y la ciencia de la información es otro campo en el centro de este debate. El International Journal of Library Science tiene muchos artículos sobre el almacenamiento de datos a largo plazo.

Mis dos bits en cuanto a cómo esto afecta a muchos proyectos de ingeniería integrados. ¡Considera seriamente cómo archivas tus proyectos! ¿Puedes instalar todas las herramientas y parches de archivos locales? ¿Tienes todos los drivers para el hardware? ¿Tiene los espectadores correctos para los tipos de archivo de salida? ¿Existen limitaciones del sistema operativo?

Si los datos duran 50 años pero no tiene las herramientas, es inútil. Una vez tuve que recuperar los datos del usuario 10 años después de haber sido cuidadosamente almacenados en discos ZIP de 100MB. Tomó más de una semana construir una máquina con Windows 95 (necesitábamos un sistema operativo de 16 bits y DOSBox no emulaba correctamente), encontrar controladores, copiar archivos y rastrear y comprar un borrador de chip UV usado para hacer una pequeña Cambia al código legado. Si se hubiera mantenido una sola máquina con Windows 95 como la máquina de "archivo", nada de eso hubiera sido necesario.

La retención de datos es solo una parte de la ecuación, también debe mantener las herramientas que le dan acceso a sus datos.

    
respondido por el spearson
1

Si bien la "rotura de bits" es fácil de definir, la probabilidad de que se produzca la rotura de bits es bastante difícil de expresar. Hay varios documentos (consulte aquí) sobre el tema. En el caso de la podredumbre de bits causada estrictamente por algún cambio de radiación cósmica de 1 bit o algo similar (suponiendo que todo funciona bien dentro del sistema) estamos hablando de cantidades extremadamente grandes de datos y / o períodos de tiempo para presenciar uno de estos eventos.

En mi humilde opinión, a medida que el bloatware sigue creciendo y, dado que estamos en los albores de la "Internet de las cosas" (otra, no potencial, pero verdadera inundación de datos bíblicos), en algunas décadas esto podría ser un dolor de cabeza para el usuario cotidiano. Supongo que las granjas de servidores grandes (¿Google? Facebook?) Ya están experimentando tales problemas. Sin embargo, existe una técnica, llamada 'depuración de datos', que básicamente consiste en una tarea en segundo plano que verifica periódicamente la integridad de los datos y hace las correcciones necesarias. Microsoft ha desarrollado un nuevo sistema de archivos para servidores Windows 8, denominado ReFS (Sistema de archivos resistente) - un nombre menos imaginativo que el nombre de trabajo filtrado 'Protogon' - que incorpora el barrido.

En el lado perverso de las cosas, la verdadera pudrición de bits no se resuelve realmente con el respaldo. Si bien la copia de seguridad puede ser efectiva en el sentido de que los errores tienden a localizarse y es muy poco probable que los mismos datos almacenados en dos lugares diferentes estén dañados en ambas ubicaciones al mismo tiempo , la mayor cantidad de datos en bruto aumentará la probabilidad de que un bit se voltee accidentalmente.

    
respondido por el Count Zero

Lea otras preguntas en las etiquetas