名词解释
介绍互信息之前,先引入信息论的一些概念
# Information (信息量)
刻画消除不确定性所需要的信息量,发生的事情概率越大,所带来的信息量越小,反之其信息量越大
例如:
事件A:扔骰子的点数大于3点,其概率为
事件B:扔骰子的点数为6,其概率为
我们认为事件 B 体现的信息量更大
# Entropy(熵)
信息熵用于衡量整体所带来的信息量的大小,即利用期望进行评估“事件香农信息 量 x 事件概率的累加",也是信息熵的概念
例如:
abbbb 其信息熵
abcde 其信息熵
计算得到的 "abcde" 信息熵要大于 "abbbb",其整体的信息量也更大
# Cross Entropy(交叉熵)
两个随机变量的熵
熵的连锁规则:
# KL Divergence(KL散度或相对熵)
用于衡量概率分布间的差异,也就是信息熵的差异
整理一下可得:
KL 散度的最大特点是不对称,即
# JS Divergence(JS散度)
JS 散度的特点是其对称,即
# Mutual Information(互信息)
已知两个变量,若 ,则两个随机变量 独立。由贝叶斯公式即可得到:
独立性的判别公式反映了已知 的情况下, 的分布是否会发生改变(能否为 带来新的信息).然而独立性只能表示两变量是否有关系,而不能描述他们的关系强弱。
所以引入互信息来量化的评价随机变量之间依赖关系的强弱。定义互信息 :
互信息的性质
- 对称性:
- 非负性:
- X与Y独立时:
上次更新: 2021/08/02, 21:04:52
- 02
- README 美化05-20
- 03
- 常见 Tricks 代码片段05-12