这节可以搭配
- 【机器学习】Logistic回归(重新整理)
- 信息量(信息)
- 信息量公式的推理过程
- 香农熵
- 信息增益
【机器学习】Logistic回归(重新整理)
B站视频:“交叉熵”如何做损失函数?打包理解“信息量”、“比特”、“熵”、“KL散度”、“交叉熵”
信息量(信息)
举个例子:
如果有人告诉你,今天太阳从东边出来了,那么这条信息的信息量就很低,因为每天的太阳常常从东边出来。
但是,突然某一天有人告诉你,今天太阳是从西边出来的,那么这条信息的信息量就很高,因为,在你的意识里,太阳几乎不可能从西边出来
“很高”,“很低”这些都是很模糊的形容词,那么我们怎么量化这些信息程度呢?哎嘿!这就是信息量。
信息量公式的推理过程
“日出东方”这是一个大概率事件,其携带信息量很少。而“日出西方”是一个小概率事件,它所携带的信息量就很大了。
从上面可以得出一个结论就是:信息量的高低总是和一个事件的概率负相关(片面理解)
猜想一:那么是不是
1
p
i
\frac{1}{p_i}
pi1(
p
i
p_i
pi事件i发生的概率)就可以量化的表示信息的信息量了。
答:不完全正确,虽然在一些情况下,信息量可以通过一个事件发生的概率来表示,但是
1
p
i
\frac{1}{p_i}
pi1并不能准确地表示信息量.
知识点一:在信息论中,通常使用负对数函数来计算信息量。对于一个事件 i,其信息量
I
i
I_i
Ii 可以表示为:
I
i
:
=
−
l
o
g
2
p
i
I_i:=-log_2p_i
Ii:=−log2pi
其中
p
i
p_i
pi表示事件i发生的概率
这个公式的物理意义是,当事件 i 发生的概率越小时,其所包含的信息量就越大。例如,在一组有 8 个等概率的符号中选出一个符号,它所包含的信息量为 − l o g 2 ( 1 8 ) = 3 -log_2(\frac{1}{8})=3 −log2(81)=3比特。而当在同一组符号中选出一个概率为 1 的符号时,它所包含的信息量为 − l o g 2 1 = 0 -log_21=0 −log21=0 比特。
以2为底的优势就是单位为比特,这个写进了信息量的定义,不能更改。 log的优势是可以将P(AB) = P(A)·P(B) 转化为 I(AB) = I(A)+I(B),逻辑自洽。
香农熵
给定题目:有一枚均匀的硬币 C 1 C_1 C1(正面的概率和抛反面概率都是0.5),还有一枚不均匀的硬币 C 2 C_2 C2(正面概率0.8,反面概率0.2)
- 事件A:正面
- 事件B:反面
事件(A|B)发生的难度有多大?这就是熵
简单说,就是
- 信息量:衡量某一具体事件从不确定到确定的难度大小
- 熵:衡量整个系统的所有事件从不确定到确定的难度大小
猜想二:是不是可以简单的将系统中的所有事件的信息量加和大小作为整个系统的香农熵值?
答:不完全正确。香农熵是用来衡量一个系统的不确定性或者信息量的度量方式。在信息论中,香农熵通常被定义为一个系统中所有可能事件的信息量的期望值。
知识点一:香农熵是信息论中的一个概念,通常用符号H表示。它描述的是一个离散信源所产生的信息量的平均值。具体地说,如果一个离散信源可以发出n个符号,每个符号出现的概率分别为p1,p2,…,pn,那么这个信源每产生一个符号所带来的信息量就是-log2(pi)(以2为底的对数),而香农熵就是所有符号的信息量的平均值: H = − ∑ p ( x ) ⋅ l o g 2 p ( x ) H=-\sum p(x)·log_2{p(x)} H=−∑p(x)⋅log2p(x)
如果将第一个p(x)修改为y,变化后的公式就是交叉熵。想一想为啥?提示:KL散度
结合上面例子,系统
C
1
、
C
2
C_1、C_2
C1、C2的香农熵就是
H
C
1
=
−
(
0.5
∗
l
o
g
2
(
0.5
)
+
0.5
∗
l
o
g
2
(
0.5
)
)
=
1
H_{C_1}=-(0.5*log_2(0.5)+0.5*log_2(0.5))=1
HC1=−(0.5∗log2(0.5)+0.5∗log2(0.5))=1
H
C
2
=
−
(
0.8
∗
l
o
g
2
(
0.8
)
+
0.2
∗
l
o
g
2
(
0.2
)
)
≈
0.722
H_{C_2}=-(0.8*log_2(0.8)+0.2*log_2(0.2))≈0.722
HC2=−(0.8∗log2(0.8)+0.2∗log2(0.2))≈0.722
信息增益
其公式为:
G
a
i
n
(
D
,
A
)
=
H
(
D
)
−
∣
D
1
∣
D
H
(
D
1
)
−
∣
D
2
∣
D
H
(
D
2
)
Gain(D,A)=H(D)-\frac{|D_1|}{D}H(D_1)-\frac{|D_2|}{D}H(D_2)
Gain(D,A)=H(D)−D∣D1∣H(D1)−D∣D2∣H(D2)
其中
D
1
、
D
2
D_1、D_2
D1、D2为划分数据集