دنیای دیجیتال امروز همه را با استفاده از دستگاه های دستی مانند تلفن های همراه و تبلت ها متصل می کند. این امر همچنین منجر به افزایش به اشتراک گذاری داده ها شده است که بیشتر به مدیریت کارآمد ذخیره دیسک نیاز دارد. علاوه بر این ، اشتراک گذاری سریع و مؤثر داده ها از طریق اینترنت نیاز به اندازه پرونده دارد تا حد ممکن کوچک باشد. قالب های پرونده فشرده سازی الگوریتم های فشرده سازی ضرر و ضرر را برای فشرده سازی داده ها ارائه می دهند. اینها در کاهش استفاده از ذخیره سازی دیسک و انتقال سریع داده از طریق اینترنت کمک می کند. در این مقاله ، بیایید در مورد الگوریتم های فشرده سازی گسترده و انواع آنها دانش کسب کنیم.

الگوریتم های فشرده سازی بدون ضرر

همانطور که این نام دلالت دارد الگوریتم های فشرده سازی بدون ضرر متعلق به دسته ای از الگوریتم های فشرده سازی داده است که پرونده ها را بدون از دست دادن هر یک از محتوای آنها فشرده می کنند. این بدان معنی است که الگوریتم های فشرده سازی بدون ضرر می توانند داده های اصلی را از داده های فشرده به طور دقیق بازسازی کنند. بسیاری از الگوریتم های مختلف یا با یک نوع معمولی از داده های ورودی در ذهن طراحی شده اند و یا با فرض اینکه چه نوع افزونگی داده های فشرده نشده وجود دارد. در زیر توضیح مختصری در مورد برخی از الگوریتم های فشرده سازی بدون ضرر و زیان وجود دارد:

bzip2

این الگوریتم برای فشرده سازی داده ها از الگوریتم چرخ های چرخ دار با کدگذاری RLE و هافمن استفاده می کند. از آن برای فشرده سازی پرونده ها فقط بدون بایگانی آنها استفاده می شود. پرونده های فشرده شده معمولاً با پسوند .bz2 ذخیره می شوند.

رمزگذاری هافمن

این الگوریتم بر اساس یک روش خاص برای انتخاب هویت برای هر نماد ساخته شده است و در نتیجه یک کد پیشوند ایجاد می شود. برنامه نویسی هافمن چنین روشی گسترده برای ایجاد کدهای پیشوند است. پرونده های فشرده سازی با پسوندهایی مانند. MPQ ،. ACE ،. jpeg ،. رمزگذاری

فشرده سازی Lempel-Ziv

این الگوریتم فشرده سازی همچنین به عنوان LZ77 و LZ78 دو الگوریتم فشرده سازی داده بدون ضرر شناخته شده است. ترکیبی از این الگوریتم ها بر اساس تغییرات بسیاری از جمله LZW ، LZSS ، LZMA و دیگران است. هر دوی آنها از لحاظ نظری رمزگذار فرهنگ لغت هستند. در حین فشرده سازی ، LZ77 یک پنجره کشویی را حفظ می کند. بعداً یا بعداً نشان داده شد که معادل فرهنگ لغت صریح ساخته شده توسط LZ78 است. بنابراین ، آنها با رفع فشار کل داده ها معادل می شوند. پرونده ها با. LZMA ،. LZO ،. LZ ،. LZH پسوندها توسط فشرده سازی Lempel-Ziv پشتیبانی می شوند.

پیش بینی با تطبیق جزئی (PPM)

** پیش بینی توسط تطبیق جزئی**که به عنوان PPM نیز شناخته می شود ، یک الگوریتم فشرده سازی مبتنی بر پیش بینی و مدل سازی زمینه است. برای پیش بینی نماد بعدی در یک جریان ، مدل های PPM از مجموعه ای از نمادهای قبلی در جریان نماد فشرده نشده استفاده می کنند. الگوریتم PPM از پرونده های ZIP و 7Z پشتیبانی می کند.

رمزگذاری طول (RLE)

این الگوریتم همچنین به عنوان الگوریتم فشرده سازی بدون ضرر RLE بر اساس توالی های حاوی همان مقدار داده که در بسیاری از عناصر داده مجاور رخ می دهد ، شناخته می شود. این توالی ها را اجرا می کنند. RLE هر اجرا را به عنوان یک مقدار داده واحد و شمارش ذخیره می کند. این برای داده هایی که شامل اجرای بسیاری است ، مانند تصاویر گرافیکی ساده ، به عنوان مثال ، مفید است. نقشه ها ، نمادها ، خطوط و انیمیشن ها. پرونده ها با. PSD ،. PSB ،. TGA پسوندها توسط RLE پشتیبانی می شوند

الگوریتم های فشرده سازی ضرر

الگوریتم های فشرده سازی ضرر یک قدم جلوتر به منظور کاهش اندازه ذخیره سازی پرونده ها هستند. در حالی که ، از دست دادن برخی از اطلاعات به عنوان رها کردن جزئیات غیر ضروری پذیرفته می شود. الگوریتم های فشرده سازی داده های ضرر با تحقیقات در مورد نحوه درک مردم داده ها تشکیل می شوند. بیشتر الگوریتم های فشرده سازی از دست رفته بر اساس کدگذاری تبدیل است. برخی از الگوریتم های معروف فشرده سازی ضرر به طور خلاصه در زیر توضیح داده شده است:

تبدیل کسین گسسته (DCT)

تبدیل کپسین گسسته (DCT) یک توالی محدود از نقاط داده از نظر مجموع توابع کسین است که در فرکانس های مختلف نوسان دارد. در اکثر رسانه های دیجیتال ، از جمله تصاویر دیجیتالی مانند JPEG ، HEIF ، J2K ، Exif و DNG استفاده می شود.

فشرده سازی موجک

فشرده سازی موجک یک الگوریتم فشرده سازی ضرر است که بیشتر در فشرده سازی تصویر استفاده می شود. این الگوریتم از یک اصل به نام کدگذاری تبدیل استفاده می کند که در ابتدا از تبدیل موجک استفاده می شود. این به همان اندازه ضرایب ایجاد می کند که پیکسل هایی در تصویر وجود دارد. از آنجا که اطلاعات از نظر آماری فقط در چند ضرایب متمرکز شده است ، این ضرایب می توانند راحت تر فشرده شوند. پیاده سازی های قابل توجه JPEG 2000 ، DJVU و ECW برای تصاویر ثابت هستند.

فشرده سازی ادراکی دکارتی (CPC)

این فشرده سازی از دست رفته همچنین به عنوان CPC برای فشرده سازی زیاد تصویربرداری شفاف سیاه و سفید از اسکن های بایگانی ایجاد شده است. این الگوریتم معمولاً در توزیع وب اسناد حقوقی ، نقشه های نقشه جغرافیایی و برنامه های طراحی استفاده می شود.

فشرده سازی فراکتال

فشرده سازی فراکتال یک الگوریتم فشرده سازی از دست رفته برای تصاویر دیجیتالی مبتنی بر فراکتال است. این الگوریتم برای تصاویر و بافت های طبیعی مناسب است ، با تکیه بر قسمت هایی از تصویر مشابه سایر قسمت های همان تصویر. الگوریتم های فراکتال این قسمت ها را به کدهای فراکتال تبدیل می کنند که برای بازآفرینی تصویر رمزگذاری شده استفاده می شوند.

نتیجه

در این مقاله ، شما در مورد الگوریتم های فشرده سازی ، انواع اصلی آنها و الگوریتم های فشرده سازی معمولاً استفاده شده اید. لازم نیست دانش را در ذهن خود در مورد همه الگوریتم های فشرده سازی حفظ کنید. اما اگر شما نیاز به ایجاد یک نمایش هوشمندانه در مورد موضوع فشرده سازی های مختلف ضرر یا ضرر دارید ، می توانید از اینجا کمک بگیرید. از این رو ، این صفحه وبلاگ را به عنوان مرجع علامت گذاری کنید.