信息熵公式:
[h=\sum{-p \cdot logp}]
p是可能性或发生概率的期望
关注度公式:
[a=\alpha \cdot \Delta p]
a是关注度 (\alpha)是未知参数 (\Delta p)是信息可能性与期望可能性的差
当(\Delta p)超过阈值(a0) <span …
信息熵公式:
[h=\sum{-p \cdot logp}]
p是可能性或发生概率的期望
关注度公式:
[a=\alpha \cdot \Delta p]
a是关注度 (\alpha)是未知参数 (\Delta p)是信息可能性与期望可能性的差
当(\Delta p)超过阈值(a0) <span …