Mètode d'entropia creuada

De testwiki
Salta a la navegació Salta a la cerca

El mètode d'entropia creuada ( CE ) és un mètode de Montecarlo per al mostreig d'importància i l'optimització. És aplicable tant a problemes combinatoris com continus, amb un objectiu estàtic o sorollós.[1]

El mètode aproxima l'estimador de mostreig d'importància òptima repetint dues fases:

  1. Treu una mostra d'una distribució de probabilitat.
  2. Minimitzar l'entropia creuada entre aquesta distribució i una distribució objectiu per produir una millor mostra en la següent iteració.[2]

Reuven Rubinstein va desenvolupar el mètode en el context de la simulació d'esdeveniments rars, on s'han d'estimar probabilitats minúscules, per exemple en l'anàlisi de la fiabilitat de la xarxa, els models de cua o l'anàlisi del rendiment dels sistemes de telecomunicacions. El mètode també s'ha aplicat als problemes del venedor ambulant, l'assignació quadràtica, l'alineació de la seqüència d'ADN, el tall màxim i l'assignació del buffer.[3]

Estimació mitjançant mostreig d'importància

Considereu el problema general d'estimar la quantitat

on H és alguna funció de rendiment i f(𝐱;𝐮) és un membre d'alguna família paramètrica de distribucions. Utilitzant el mostreig d'importància aquesta quantitat es pot estimar com

^=1Ni=1NH(𝐗i)f(𝐗i;𝐮)g(𝐗i)

on 𝐗1,,𝐗N és una mostra aleatòria de g. Per positiu H, la densitat de mostreig d'importància teòricament òptima (PDF) ve donada per

g*(𝐱)=H(𝐱)f(𝐱;𝐮)/

Això, però, depèn de la desconeguda . El mètode CE té com a objectiu aproximar el PDF òptim seleccionant de manera adaptativa els membres de la família paramètrica més propers (en el sentit de Kullback-Leibler ) al PDF òptim. g*.[4]

Algorisme genèric CE

  1. Trieu el vector del paràmetre inicial 𝐯(0) ; establir t = 1.
  2. Generar una mostra aleatòria 𝐗1,,𝐗N des de f(;𝐯(t1))
  3. Resol per 𝐯(t), on

𝐯(t)=argmax𝐯1Ni=1NH(𝐗i)f(𝐗i;𝐮)f(𝐗i;𝐯(t1))logf(𝐗i;𝐯)

4. Si s'aconsegueix la convergència, atureu-vos ; en cas contrari, augmenta t en 1 i repeteix des del pas 2.

En diversos casos, la solució al pas 3 es pot trobar analíticament. Les situacions en què això passa són

Optimització contínua — exemple

El mateix algorisme CE es pot utilitzar per a l'optimització, en lloc d'estimar. Suposem que el problema és maximitzar alguna funció S, per exemple, S(x)=e(x2)2+0.8e(x+2)2. Per aplicar CE, primer es considera el problema estocàstic associat de l'estimació θ(S(X)γ) per a un nivell determinat γ, i família paramètrica {f(;θ)}, per exemple la distribució gaussiana unidimensional, parametritzada per la seva mitjana μt i la variància σt2 (així θ=(μ,σ2) aquí). Per tant, per un fet γ, l'objectiu és trobar θ de manera que DKL(I{S(x)γ}fθ) es minimitza. Això es fa resolent la versió de mostra (contrapart estocàstica) del problema de minimització de la divergència KL, com al pas 3 anterior. Resulta que els paràmetres que minimitzen la contrapartida estocàstica per a aquesta elecció de distribució objectiu i família paramètrica són la mitjana mostral i la variància mostral corresponents a les mostres d'elit, que són aquelles mostres que tenen valor de funció objectiu. γ. La pitjor de les mostres d'elit s'utilitza com a paràmetre de nivell per a la següent iteració. Això produeix el següent algorisme aleatoritzat que coincideix amb l'anomenat Estimation of Multivariate Normal Algorithm (EMNA), un algorisme d'estimació de distribució.

Referències

Plantilla:Referències