Add. Example

pull/2/head
benjas 4 years ago
parent a0bfa9cc94
commit 8e29c1a94a

@ -65,3 +65,33 @@ Information entropy
![1618576770871](assets/1618576770871.png)
> 面试可能会问到这个公式,还有交叉熵、相对熵
熵越大则随机变量的不确定性越大。其中0 ≤ H(P) ≤ log n
### 举例计算
Example
假设投色子6个的概率分别是1/6计算如下
![1618577639913](assets/1618577639913.png)
> 其中6个1/6log左边的六分之一加起来就是1
![1618577661694](assets/1618577661694.png)
> ![1618577700910](assets/1618577700910.png)
则最终=log6
这也解释了为什么上面H(P) ≤ log n
另外均由分布的时候熵最大因为所有可能都是一样的如上面的6个面都是1/6。
如果有1个坏苹果和9个好苹果时我们可以认为大部分都是坏苹果。内部并不混乱确定性很大熵很小。

Binary file not shown.

After

Width:  |  Height:  |  Size: 6.0 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 3.3 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 4.6 KiB

Loading…
Cancel
Save