Сегодняшний цифровой мир соединяет всех, используя портативные устройства, такие как мобильные телефоны и планшеты. Это также привело к увеличению обмена данными, что дополнительно требует эффективного управления дисковым хранилищем. Кроме того, быстрое и эффективное обмен данными через Интернет требует, чтобы размеры файлов были максимально небольшими. Форматы файлов сжатия предлагают алгоритмы сжатия без потерь для сжатия данных. Они помогают в сокращении использования дискового хранилища и быстрой передачи данных в Интернете. В этой статье давайте попробуем получить знания о наиболее широко используемых алгоритмах сжатия и их типах.
Без потерь алгоритмы сжатия
Поскольку имя подразумевает, что алгоритмы сжатия без потерь относятся к категории алгоритмов сжатия данных, которые сжимают файлы, не теряя ни одного из их контента. Это означает, что алгоритмы сжатия без потерь могут точно реконструировать исходные данные из сжатых данных. Многие различные алгоритмы разработаны либо с учетом типа входных данных, либо предполагая, какие виды избыточности могут содержать несжатые данные. Ниже приводится краткое объяснение некоторых из наиболее широко используемых алгоритмов сжатия без потерь:
bzip2
Этот алгоритм использует алгоритм Burrows-Wheeler с кодированием RLE и Huffman для сжатия данных. Он используется для сжатия файлов только без их архивации. Сжатые файлы обычно сохраняются с расширением .bz2.
Кодирование Хаффмана
Этот алгоритм основан на конкретном методе для выбора идентификации для каждого символа, что приводит к коду префикса. Кодирование Huffman является таким широко распространенным методом для создания кодов префикса. Файлы сжатия с расширениями, такими как. MPQ,. ACE,. JPEG,. кодирование.
Сжатие Lempel-ziv
Этот алгоритм сжатия также известен как lz77 , а lz78 являются двумя алгоритмами сжатия данных без потерь. Комбинация этих алгоритмов основана на многих вариациях, включая LZW, LZS, LZMA и другие. Оба они теоретически кодеры словаря. Во время сжатия LZ77 поддерживает скользящее окно. Позже или позже было показано, что он эквивалентен явному словарю, построенному LZ78. Следовательно, они становятся эквивалентными декомпрессией всех данных. Файлы с. LZMA,. LZO,. LZ,.
Прогноз по частичным сопоставлению (PPM)
** Прогнозирование по частичным сопоставлению**, которое также известно как PPM, представляет собой алгоритм сжатия, основанный на прогнозировании и контекстном моделировании. Чтобы предсказать следующий символ в потоке, модели PPM используют набор более ранних символов в несущественном потоке символов. Алгоритм PPM поддерживает файлы ZIP и 7Z.
Кодирование длиной длины (RLE)
Этот алгоритм также известен как алгоритм сжатия без потерь RLE на основе последовательностей, содержащих то же значение данных, которое происходит во многих смежных элементах данных. Эти последовательности называются прогонами. RLE сохранял каждый запуск в виде единого значения данных и подсчета. Это полезно для данных, которые содержат много прогонов, таких как простые графические изображения, например, Рисунки, значки, линии и анимация. Файлы с. PSD,. PSB,. TGA Расширения поддерживаются RLE
Алгоритмы сжатия потеря
Алгоритмы сжатия потеря являются на шаг вперед, чтобы уменьшить размер хранилища файлов. Принимая во внимание, что потеря какой-либо информации принимается как сбрасывание неосведомленных деталей. Алгоритмы сжатия данных с потерями формируются путем исследования того, как люди понимают данные. Большинство алгоритмов сжатия потерь основаны на преобразовании кодирования. Некоторые из знаменитых алгоритмов сжатия с потерями кратко объяснены ниже:
Дискретное косинусное преобразование (DCT)
Дискретное преобразование косинуса (DCT) - это ограниченная последовательность точек данных с точки зрения суммы функций косинуса, колеблющихся на разных частотах. Он используется в большинстве цифровых носителей, включая цифровые изображения, такие как JPEG, HEIF, J2K, ESIF и DNG.
Вейвлет сжатие
Вейвлет -сжатие - это алгоритм сжатия потеря, который чаще всего используется в сжатии изображения. Этот алгоритм использует принцип, называемый кодированием преобразования, в котором первоначально применяется вейвлет -преобразование. Это создает столько же коэффициентов, сколько есть пиксели на изображении. Поскольку информация статистически концентрирована только в нескольких коэффициентах, эти коэффициенты могут быть сжаты легче. Примечательными реализациями являются JPEG 2000, DJVU и ECW для неподвижных изображений.
Картезианское восприятие сжатие (CPC)
Это сжатие потерь также известно как CPC, была создана для высокого сжатия черно-белой растровой визуализации из архивных сканирований. Алгоритм обычно используется в веб -распределении юридических документов, географических карт сюжета и планов дизайна.
Фрактальное сжатие
Фрактальное сжатие-это алгоритм сжатия потерь для цифровых изображений на основе фрактала. Алгоритм подходит для естественных изображений и текстур, полагаясь на части изображения, аналогичные другими частями того же изображения. Фрактальные алгоритмы преобразуют эти части в фрактальные коды, которые используются для воссоздания кодированного изображения.
Заключение
В этой статье вы узнали об алгоритмах сжатия, их основных типах и обычно используемых алгоритмах сжатия. Нет необходимости держать знания в вашем уме обо всех алгоритмах сжатия. Но если вам нужно создать умную презентацию на тему различных сжатий потерь или без потерь, вы можете получить помощь отсюда. Следовательно, добавьте эту страницу блога в качестве ссылки.