AnuncioEn nuestro artículo anterior, describimos los detalles básicos sobre la compresión de datos. Además, hemos señalado que la compresión sin pérdidas es cuando los datos comprimidos se pueden utilizar para extraer exactamente los datos originales. Esto es necesario, por ejemplo, al comprimir archivos de programas ejecutables. Algunos ejemplos son: Imágenes: RAW, BMP, PNG General: ZIP Audio: WAV, FLAC En el caso de compresión con pérdida o reducción de irrelevancia, los datos originales generalmente ya no se pueden recuperar exactamente a partir de los datos comprimidos, es decir, parte de la información se pierde; Los algoritmos intentan omitir sólo información «sin importancia» en la medida de lo posible. Estos métodos se utilizan a menudo para la compresión de imágenes o vídeos y la compresión de datos de audio. Los ejemplos incluyen: Imágenes: JPEG Vídeo: MPEG, AVC, HEVCAudio: MP3, AAC Característica de la compresión con pérdida La compresión con pérdida, como se describe anteriormente, siempre es posible: el umbral de lo que se considera “redundante” se puede aumentar hasta que solo quede 1 bit. Los límites son fluidos y están determinados por el caso de uso: por ejemplo, “La casa es grande” podría comprimirse a “La casa es grande”; Si el lector quiere saber “¿cuál es la propiedad de la casa?”, ya no es posible distinguir si es “gris”, “verde” o “grande”. Si el lector quiere saber «¿se dijo algo sobre una casa?», la respuesta aún puede ser claramente sí. Con la compresión de imágenes con pérdida, los detalles se pierden/borrosos cada vez más, eventualmente «todo se difumina» en una superficie con color uniforme; Una grabación de audio suele volverse más apagada y confusa; con la mayoría de los algoritmos sólo tendría un tono de onda sinusoidal simple después de la mayor compresión posible. Característica de la compresión sin pérdida La compresión sin pérdida tiene límites mucho más estrictos, ya que debe garantizarse que el archivo comprimido pueda transformarse nuevamente en el archivo original. El número 100000000 podría comprimirse como “10^8” o “1e8”, en cuyo caso el lector debe conocer el método de recuperación, es decir, la notación de potencia. Sin embargo, si una cadena no tiene ninguna estructura reconocible/características especiales, entonces la compresión no es posible: las instrucciones tendrían que contener los datos originales sin cambios. Otra razón para la incompresibilidad de algunos datos es el llamado principio del palomar: si hay Si hay menos lugares para anidar para las palomas que palomas en el palomar, dos o más palomas inevitablemente tendrán que compartir un lugar para anidar. En un espacio de n bits puede almacenar una de dos posibles piezas de información, y en un espacio que es un poco más pequeño, puede almacenar sólo una de la mitad de la información posible. Esto significaría, según el principio del palomar, que cada espacio de almacenamiento debería contener dos archivos comprimidos diferentes al mismo tiempo. Sin embargo, dado que la compresión sin pérdidas requiere una asignación reversible e inequívoca entre archivos comprimidos y sin comprimir, esto no es posible. Si el principio del palomar no se aplicara, y si existiera un algoritmo que pudiera comprimir cualquier archivo determinado en al menos un bit, podría ser aplicado de forma recursiva al archivo comprimido respectivo; cualquier información podría reducirse a 0 bits. En la práctica, los datos que ya han sido comprimidos sólo se pueden volver a comprimir si en la ejecución anterior se utilizó un algoritmo que no es 100% eficiente y que aún no ha eliminado completamente la redundancia (por ejemplo, un archivo muy grande lleno de ceros se comprime dos veces con gzip). ). Estos dos hechos llevan a la conclusión de que los datos puramente aleatorios (muy probablemente) no se pueden comprimir (ya que generalmente no tienen estructura) y que muchos, pero no todos, los datos se pueden comprimir. Tecnología detrás de la compresión con pérdida La compresión con pérdida elimina información irrelevante, también conocida como reducción de irrelevancia. En el proceso, parte de la información de los datos originales se pierde, por lo que ya no se puede reconstruir el original a partir de los datos comprimidos. Se necesita un modelo que decida qué proporción de la información es prescindible para el destinatario. La compresión con pérdida se utiliza principalmente en la transmisión de imágenes, vídeo y audio. El modelo se basa en la percepción humana. Un ejemplo popular es el formato de audio MP3, que elimina patrones de frecuencia que los humanos escuchan mal o no escuchan en absoluto. La base teórica es la teoría de la distorsión de la velocidad. Describe la velocidad mínima de transferencia de datos necesaria para transmitir información de una determinada calidad. El sonido, la imagen y el cine son áreas de aplicación de la compresión con pérdidas. De lo contrario, sería muy difícil manejar cantidades de datos, a menudo enormes. Incluso los dispositivos de grabación limitan el volumen de datos. La reducción de los datos almacenados se basa en las propiedades perceptuales fisiológicas de los seres humanos. La compresión mediante algoritmos suele utilizar la conversión de curvas de señal de señales de muestra en una representación de frecuencia. En la percepción acústica de los humanos, las frecuencias superiores a aprox. Los 20 kHz ya no se perciben y ya se pueden recortar en el sistema de grabación. Asimismo, los tonos secundarios silenciosos existentes en una mezcla de sonidos son difíciles de percibir si al mismo tiempo aparecen sonidos muy fuertes, de modo que los componentes de frecuencia inaudibles se pueden eliminar del sistema de compresión de datos sin que esto sea percibido como molesto por el oyente. Cuando los eventos acústicos digitalizados (música, voz, sonidos) se reducen a valores de aproximadamente 192 kbit/s (como ocurre con muchas descargas de Internet), los humanos apenas pueden detectar diferencias de calidad en comparación con el material original sin comprimir. (como en el caso de un CD). En la percepción óptica de las personas, los colores se resuelven con menos intensidad que los cambios de luminosidad, de lo que se deriva la reducción YUV-422, que ya se conoce en la televisión analógica en color. Los bordes, por el contrario, son más marcados y se produce un realce del contraste biológico (rayas de Mach). Con un filtrado de paso bajo moderado para la reducción de color, como el algoritmo JPEG basado en transformada DCT o el nuevo algoritmo JPEG2000 basado en transformada wavelet, la cantidad de datos generalmente se puede reducir al 10% o menos de la cantidad de datos original. sin reducciones significativas de calidad. Las imágenes en movimiento (películas) consisten en imágenes individuales sucesivas. El primer enfoque fue comprimir cada imagen individualmente según el algoritmo JPeg. El formato resultante es Motion JPEG (equivalente a MPEG-1 si contiene sólo fotogramas I). Las tasas de compresión mucho más altas de hoy en día sólo se pueden lograr si al codificar se tiene en cuenta la similitud de las imágenes adyacentes (fotogramas). Para ello, la imagen se divide en cuadros más pequeños (los tamaños típicos están entre 4×4 y 16×16 píxeles) y se buscan cuadros similares en imágenes ya transferidas y se utilizan como plantillas. El ahorro se debe a que en lugar de transferir todo el contenido de la imagen sólo se deben transferir las diferencias de los cuadros intrínsecamente similares. Además, los cambios de la imagen anterior a la actual indican en qué dirección se ha desplazado el contenido de la imagen y en qué medida; sólo se almacena un vector de desplazamiento para el área correspondiente. Tecnología detrás de la compresión sin pérdidas Con la compresión sin pérdidas, los datos originales se pueden restaurar exactamente a partir de los datos comprimidos. No se pierde ninguna información. Esencialmente, los métodos de compresión sin pérdidas explotan la redundancia de datos, también conocida como reducción de redundancia. La base teórica es la teoría de la información (relacionada con la teoría algorítmica de la información). Debido al contenido de información, especifica una cantidad mínima de bits necesarios para codificar un símbolo. Los métodos de compresión sin pérdida ahora intentan codificar mensajes de tal manera que se aproximen lo más posible a su entropía. Los textos, siempre que consistan en letras o se almacenen como cadenas y, por lo tanto, no como imágenes (gráficos rasterizados, generalmente un archivo de imagen). después de escanear un libro), ocupan comparativamente poco espacio de almacenamiento. Esto se puede reducir entre un 20% y un 10% del espacio original requerido mediante un proceso de compresión sin pérdidas. Conclusión Los artefactos de compresión son interferencias de señal causadas por una compresión con pérdidas. Sin embargo, necesitamos usar compresión con pérdida para limitar el espacio de almacenamiento, la velocidad de la red, etc. con un equilibrio con: requisitos de almacenamiento/entrega tiempos de carga (por ejemplo, en la web) calidad de imagen/sonido Las percepciones sensoriales se filtran, lo que también es un tipo de compresión, o más precisamente, compresión con pérdida, ya que sólo se percibe la información relevante actualmente. Si es necesario, lo que falta se reemplaza inconscientemente. Por ejemplo, el ojo humano sólo ve claramente en un área pequeña (fóvea central); fuera de este estrecho campo de visión, la información faltante se reemplaza inconscientemente por patrones. De manera similar, el ojo humano puede percibir las diferencias de brillo mucho mejor que las diferencias de tono; el modelo de color YCbCr utilizado en imágenes JPEG aprovecha este hecho y almacena el valor del color con mucha menos precisión.

Source link