AnuncioEn teoría de la información, el término redundancia describe información o datos que están presentes varias veces en una fuente de información. Una unidad de información es redundante si puede omitirse sin pérdida de información. Identificar y eliminar dichas redundancias se denomina deduplicación. Redundante es la parte de un mensaje que no contiene ninguna información. La parte redundante del mensaje puede ser función de la información contenida en el mensaje. En aplicaciones de tecnología de la información y telecomunicaciones, la redundancia se utiliza de forma específica para detectar errores. Además de detectar errores, una mayor redundancia también permite corregirlos. Por tanto, la redundancia permite un aumento de la calidad (menos errores) a expensas de la cantidad (mayor velocidad de datos). Por lo tanto, la cantidad de redundancia a utilizar en cada caso depende de la tolerancia a fallos de la aplicación respectiva: en la banca y los viajes espaciales, un solo bit volcado podría costar mucho dinero, mientras que en la telefonía por Internet o DVB, incluso la pérdida continua de los paquetes completos son irrelevantes. Tanto en el desarrollo de bases de datos como en las estructuras de datos de los programas, es importante evitar al máximo las redundancias, ya que pueden generar mayores necesidades de espacio de almacenamiento e inconsistencias. Por tanto, los despidos se cuentan como anomalías. La ausencia de redundancia se considera un principio básico para un modelo de datos lógico. Al normalizar el esquema de la base de datos, se pueden evitar en gran medida las redundancias. También hay despidos que son inevitables (por ejemplo, despidos clave) y, por lo tanto, se aceptan como un mal necesario. También hay redundancias que se aceptan porque evitarlas supondría demasiado esfuerzo en relación con sus problemas, como la aparición múltiple de un valor de atributo o el doble almacenamiento de una entrada. La aceptación deliberada de la redundancia para obtener un mejor rendimiento de lectura se denomina desnormalización. En las estructuras de datos de programas y bases de datos, las redundancias pueden provocar errores en el programa. El programador debe asegurarse de mantener los datos redundantes coherentes con todos los cambios. Esto requiere un gran esfuerzo de sincronización. Cuanto más grande es el proyecto y cuanto más tiempo se desarrolla, más difícil se vuelve. Cuando varios programadores, sin saberlo, trabajan de forma independiente en datos redundantes, es casi imposible mantener la coherencia de los cambios. Hay algunos casos en los que la redundancia de datos inducida intencionalmente reduce el tiempo de cálculo del software. Se puede lograr mediante una desnormalización dirigida. Sin embargo, esta redundancia intencionada y calculada con precisión debe distinguirse claramente de la redundancia creada descuidadamente porque alguien no aplica las reglas de normalización. Las desnormalizaciones generalmente aumentan el rendimiento en lectura pero empeoran el rendimiento en escritura.

Source link