Question

Je lis un document qui fait référence à la limite que n tend vers l'infini de l'entropie Rényi. Il définit comme $ {{H} _ {n}} \ left (X \ right) = \ dfrac {1} {1-n} \ log_2 \ left (\ sum \ limits_ {i = 1} ^ {N} {{p_ i} ^ {n}} \ right) $. Il dit alors que la limite que $ n \ to \ infty $ est $ - \ log_2 \ left (p_1 \ right) $. J'ai vu un autre article qui utilise le maximum de la $ {{p} _ {i}} 's $ au lieu de $ {{p} _ {1}} $. Je pense que cela fonctionne assez facilement si tous les $ {{p} _ {i}} s '$ sont égaux (une distribution uniforme). Je ne sais pas comment prouver quoi que ce soit autre qu'une distribution uniforme. Quelqu'un peut-il me montrer comment faire?

Était-ce utile?

La solution

Supposons $ p_1 = \ MAX_I p_i $. Nous avons $$ p_1 ^ n \ leq \ sum_ {i = 1} ^ N ^ p_i n \ leq N p_1 ^ n. $$ Par conséquent $$ \ frac {n \ p_1 log + \ log N} {1-n} \ leq H_n (X) \ leq \ frac {n \ p_1 log} {1-n}. $$ Comme $ n \ rightarrow \ infty $, $ \ log N / (1-n) \ rightarrow 0 $, tandis que $ n / (1-n) \ rightarrow -1 $.

Licencié sous: CC-BY-SA avec attribution
Non affilié à cs.stackexchange
scroll top