Por Abhishek Ghosh 14 de noviembre de 2023 7:14 pm Actualizado el 14 de noviembre de 2023AnuncioLa compresión de datos es un proceso en el que la cantidad de datos digitales se condensa o reduce. Esto reduce la cantidad de espacio de almacenamiento requerido y reduce el tiempo de transferencia de datos. En telecomunicaciones, la compresión de mensajes de una fuente por parte de un remitente se denomina codificación de fuente. Básicamente, la compresión de datos intenta eliminar información redundante. Para ello, los datos se convierten en una representación que permite presentar toda (o al menos la mayor parte) de la información en una forma más breve. Este proceso lo realiza un codificador y se llama compresión. La inversión se llama descompresión. La compresión sin pérdidas, la codificación sin pérdidas o la reducción de redundancia es cuando los datos comprimidos se pueden utilizar para extraer exactamente los datos originales. Esto es necesario, por ejemplo, al comprimir archivos de programas ejecutables. En el caso de una compresión con pérdida o una reducción de irrelevancia, normalmente los datos originales ya no se pueden recuperar exactamente a partir de los datos comprimidos, es decir, se pierde parte de la información; Los algoritmos intentan omitir sólo información «sin importancia» en la medida de lo posible. Estos métodos se utilizan a menudo para la compresión de imágenes o vídeos y de datos de audio (consulte Detalles básicos del formato de audio MP3). Cómo funciona la compresión de datos La compresión de datos se lleva a cabo en la mayoría de las transmisiones de datos digitales a larga distancia en la actualidad. Ayuda a ahorrar recursos a la hora de transmitir o almacenar datos convirtiéndolos en un formato lo más mínimo posible, dependiendo de la aplicación. Sólo se pueden comprimir los datos que sean redundantes de alguna forma. Si no hay redundancia (por ejemplo, en el caso de datos completamente aleatorios), la compresión sin pérdidas es básicamente imposible debido a la complejidad de Kolmogorov. Asimismo, el principio del palomar prohíbe comprimir cualquier archivo sin pérdidas. Por otro lado, la compresión con pérdida siempre es posible: un algoritmo clasifica los datos según su importancia y luego descarta los datos «no importantes». En la lista de qué tan importantes son los componentes, se pueden descartar cada vez más cambiando el «umbral de mantenimiento» en consecuencia. En el caso de la compresión de datos, se requiere un esfuerzo computacional tanto del lado del remitente como del del receptor para comprimir o restaurar el datos. Sin embargo, el esfuerzo computacional es muy diferente para los diferentes métodos de compresión. Por ejemplo, Deflate y LZO son muy rápidos tanto en la compresión como en la descompresión, mientras que LZMA, por ejemplo, logra una compresión particularmente extensa (y, por lo tanto, la menor cantidad de datos posible) a un gran costo, mientras que los datos comprimidos se pueden convertir nuevamente a su forma original. muy rápidamente. Esto obliga a elegir diferente método de compresión dependiendo del área de aplicación. Por lo tanto, los métodos de compresión están optimizados para el rendimiento de datos, el consumo de energía o la reducción de datos, y la compresión no siempre apunta a la representación más compacta posible. La diferencia queda clara en estos ejemplos: si se transmiten grabaciones de vídeo o sonido en directo, la compresión y recuperación deben realizarse lo más rápido posible. La pérdida de calidad es justificable si se mantiene la velocidad de transmisión máxima (posible). Esto se aplica, por ejemplo, a las conversaciones telefónicas, en las que a menudo se entiende a la otra persona incluso si la calidad del sonido es mala. Si un solo archivo es descargado por innumerables usuarios, vale la pena utilizar un algoritmo de compresión lento pero muy potente. El ancho de banda reducido durante la transmisión compensa fácilmente el tiempo invertido en la compresión. Al realizar copias de seguridad y archivar datos, es necesario utilizar un algoritmo que también puede utilizarse en un futuro lejano. En este caso, sólo se pueden considerar algoritmos comunes y probados, que a veces no tienen las mejores tasas de compresión. El tipo de datos también es relevante para la selección del método de compresión. Por ejemplo, los dos programas de compresión comúnmente utilizados en sistemas operativos tipo Unix, gzip y bzip2, tienen la propiedad de que gzip comprime sólo 32.000 bytes de bloques, mientras que bzip2 tiene un tamaño de bloque de 900.000 bytes. Los datos redundantes sólo se comprimen dentro de estos bloques.

Source link