信息熵公式:

[h=\sum{-p \cdot logp}]

p是可能性或发生概率的期望

关注度公式:

[a=\alpha \cdot \Delta p]

a是关注度 (\alpha)是未知参数 (\Delta p)是信息可能性与期望可能性的差

(\Delta p)超过阈值(a0) <span …