Divergència Jensen-Shannon

De testwiki
Salta a la navegació Salta a la cerca

En teoria i estadística de probabilitats, la divergència Jensen-Shannon és un mètode per mesurar la similitud entre dues distribucions de probabilitat. També es coneix com a radi d'informació (IRad) [1][2] o divergència total a la mitjana.[3] Es basa en la divergència Kullback-Leibler, amb algunes diferències notables (i útils), inclòs que és simètrica i sempre té un valor finit. L'arrel quadrada de la divergència Jensen-Shannon és una mètrica que sovint es coneix com a distància Jensen-Shannon.[4][5][6]

Definició

Considereu el conjunt M+1(A) de distribucions de probabilitat on A és un conjunt proveït d'alguna σ-àlgebra de subconjunts mesurables. En particular podem prendre A per ser un conjunt finit o comptable amb tots els subconjunts mesurables.

La divergència Jensen-Shannon (JSD) és una versió simètrica i suavitzada de la divergència Kullback-Leibler D(PQ). Es defineix per

JSD(PQ)=12D(PM)+12D(QM),

on M=12(P+Q) és una distribució de barreja de P i Q.

La divergència geomètrica de Jensen–Shannon [7] (o divergència G-Jensen–Shannon) produeix una fórmula de forma tancada per a la divergència entre dues distribucions gaussianas prenent la mitjana geomètrica.

Una definició més general, que permet la comparació de més de dues distribucions de probabilitat, és:

JSDπ1,,πn(P1,P2,,Pn)=iπiD(PiM)=H(M)i=1nπiH(Pi)

on

M:=i=1nπiPi

i π1,,πn són pesos que es seleccionen per a les distribucions de probabilitat P1,P2,,Pn, i H(P) és l'entropia de Shannon per a la distribució P. Per al cas de dues distribucions descrit anteriorment,

P1=P,P2=Q,π1=π2=12. 

Per tant, per a aquestes distribucions P,Q

JSD=H(M)12(H(P)+H(Q))

Aplicacions

La divergència Jensen-Shannon s'ha aplicat en bioinformàtica i comparació del genoma, en comparació de superfícies de proteïnes, en ciències socials, en l'estudi quantitatiu de la història, en experiments de foc,[8] i en l'aprenentatge automàtic.

Referències

Plantilla:Referències