Source
信息论基础与Huffman编码原理
articles/algorithms/压缩算法/index.md
该页面由 knowflow 基于 raw source 自动生成,用于发布层检索与回溯。
概述
熵衡量数据的随机性,Huffman编码通过高频字符短编码实现无损压缩,减少存储空间。
来源信息
- 分类:
articles - 原始类型:
knowledge - 原始路径:
articles/algorithms/压缩算法/index.md - 关联概念:information-theory
摘录
基础概念 1. 熵(Entropy) 熵是信息论中的一个核心概念,代表数据的“随机性”或“不确定性”。在压缩中,熵可以帮助我们衡量数据的冗余程度。简单来说,熵越高,数据越难压缩;熵越低,数据就有更多重复或规律性,压缩效果也更好。 举个例子,假设你有两组数据: - A:aaaaaa - B:abcabcabc A的熵很低,因为它只有一个字符(a)重复。B的熵较高,因为它包含了更多的不同字符(a、b、c),因此压缩时不容易找到重复的模式。 2. 编码(Encoding) 编码是将数据转换成另一种形式的过程。压缩算法利用编码将高频出现的符号转换成短的代码,低频出现的符号转换成长的代码,从而减少整个数据的存储大小。 3. 冗余(Redundancy) 冗余是…
抽取到的实体
algorithmHuffman encoding:一种无损压缩算法,通过高频字符短编码减少数据存储空间。
抽取到的对比
- 未抽取到明确对比关系
附件
- 无额外附件