LZW字典编码算法实验研究文献综述
2020-04-11 14:09:40
文 献 综 述
一、选题意义
随着计算机技术的快速发展,各种系统数据量越来越大,给信息存储特别是网络传输带来诸多的困难,已成为有效获取和使用信息的瓶颈。为了节省信息的存储空间和提高信息的传输效率,必须对大量的实际数据进行压缩。
二、数据压缩基本原理
实际信源,如语音、图像、文本数据等都存在大量的冗余度。数据可以被压缩,是因为数据自身具有冗余性,而冗余度大小与数据中每个符号的出现概率和符号间的相关性有关。数据压缩技术基于不同的理念,适合不同的数据类型,产生不同的效果,但原理是相同的,即去除源文件中原始数据的冗余成分。
经典的数据压缩技术是建立在信息论的基础之上的,信源所含有的熵,就是进行无失真编码的理论极限。无失真压缩压缩编码是从分析数据出发,看哪些数据可以被省去,又如何以最小的符号来代替必不可少的数据。数据压缩编码时,如果能应用信息理论结合某些数学工具建立某种算法,而这些算法能反映数据序列中字符出现的概率统计特性和字符序列的结构,必将获得更高的数据压缩比。
三、有损数据压缩与无损数据压缩
有失真数据压缩是指在允许一定的精度损失的情况下,压缩掉数据中一些无关紧要的数据,不影响或者微小影响最终结果。但有失真数据压缩是不可逆的,即不可以将压缩后的数据还原成原始数据。
无失真数据压缩,顾名思义,就是在不失去精度的情况下,经过某种方法转换后,将原数据的冗余度减小,从而达到压缩数据的目的。无失真压缩是可逆的,可以将压缩后的数据还原成原始数据。一些常用的无损压缩方法有哈夫曼(Huffman)编码方法和LZW(Lempel-Ziv-Welch)压缩方法。
四、LZW算法