Entropia diferencial


L'entropia diferencial (també anomenada entropia contínua ) és un concepte en teoria de la informació que va començar com un intent de Claude Shannon d'estendre la idea d'entropia (Shannon), una mesura de la mitjana (sorpresa) d'una variable aleatòria, a distribucions de probabilitat contínues. Malauradament, Shannon no va derivar aquesta fórmula, i més aviat va suposar que era l'anàleg continu correcte de l'entropia discreta, però no ho és.[1] Plantilla:RpLa versió contínua real de l'entropia discreta és la densitat limitant de punts discrets (LDDP). L'entropia diferencial (descrita aquí) es troba habitualment a la literatura, però és un cas límit del LDDP i que perd la seva associació fonamental amb l'entropia discreta.
Pel que fa a la teoria de la mesura, l'entropia diferencial d'una mesura de probabilitat és l'entropia relativa negativa d'aquesta mesura a la mesura de Lebesgue, on aquesta última es tracta com si fos una mesura de probabilitat, tot i no estar normalitzada.
Definició
Deixar ser una variable aleatòria amb una funció de densitat de probabilitat el suport dels quals és un conjunt . L' entropia diferencial o es defineix com [2] Plantilla:Rp Plantilla:Equation box 1 Per a distribucions de probabilitat que no tenen una expressió de funció de densitat explícita, però tenen una expressió de funció quantil explícita, , doncs es pot definir en termes de la derivada de és a dir, la funció de densitat quantil com
Igual que amb el seu analògic discret, les unitats d'entropia diferencial depenen de la base del logaritme, que sol ser 2 (és a dir, les unitats són bits). Vegeu unitats logarítmiques per als logaritmes presos en diferents bases. Els conceptes relacionats com ara conjunt, entropia diferencial condicional i entropia relativa es defineixen de manera similar. A diferència de l'analògic discret, l'entropia diferencial té un desplaçament que depèn de les unitats utilitzades per mesurar .[3] Plantilla:RpPer exemple, l'entropia diferencial d'una quantitat mesurada en mil·límetres serà Plantilla:Literal més que la mateixa quantitat mesurada en metres; una quantitat adimensional tindrà una entropia diferencial de Plantilla:Literal més que la mateixa quantitat dividida per 1000.
Cal tenir cura en intentar aplicar les propietats de l'entropia discreta a l'entropia diferencial, ja que les funcions de densitat de probabilitat poden ser superiors a 1. Per exemple, la distribució uniforme té entropia diferencial negativa ; és a dir, està millor ordenat que com es mostra ara
sent inferior a la de que té entropia diferencial zero . Per tant, l'entropia diferencial no comparteix totes les propietats de l'entropia discreta.
Entropies diferencials per a diverses distribucions
A la taula següent és la funció gamma, és la funció digamma, és la funció beta i γ E és la constant d'Euler.[4] Plantilla:Rp
| Nom de la distribució | Funció de densitat de probabilitat (pdf) | Entropia diferencial en nats |
|---|---|---|
| Uniforme | ||
| Normal | ||
| Exponencial | ||
| Rayleigh | ||
| Beta | for | |
| Cauchy | ||
| Chi | ||
| Chi-quadrat | ||
| Erlang | ||
| F | ||
| Gamma | ||
| Laplace | ||
| Logistic | ||
| Lognormal | ||
| Maxwell–Boltzmann | ||
| Generalized normal | ||
| Pareto | ||
| Student's t | ||
| Triangular | ||
| Weibull | ||
| Multivariate normal |