Màquines d'aprenentatge extrem
Les màquines d'aprenentatge extrem són xarxes neuronals anticipades per a la classificació, la regressió, l'agrupació, l'aproximació escassa, la compressió i l'aprenentatge de funcions amb una sola capa o diverses capes de nodes ocults, on els paràmetres dels nodes ocults (no només els pesos que connecten les entrades als nodes ocults) necessiten per ser afinat. Aquests nodes ocults es poden assignar aleatòriament i no actualitzar-se mai (és a dir, són de projecció aleatòria però amb transformacions no lineals), o es poden heretar dels seus avantpassats sense canviar-los. En la majoria dels casos, els pesos de sortida dels nodes ocults s'aprenen generalment en un sol pas, que bàsicament equival a aprendre un model lineal.
El nom de "màquina d'aprenentatge extrem" (ELM) va ser donat a aquests models per Guang-Bin Huang. La idea es remunta a Frank Rosenblatt, que no només va publicar una sola capa Perceptron l'any 1958,[1] sinó que també va introduir un perceptró multicapa amb 3 capes: una capa d'entrada, una capa oculta amb pesos aleatoris que no van aprendre i un capa de sortida d'aprenentatge.[2]
Segons alguns investigadors, aquests models són capaços de produir un bon rendiment de generalització i d'aprendre milers de vegades més ràpid que les xarxes entrenades mitjançant la retropropagació.[3] A la literatura, també mostra que aquests models poden superar les màquines vectorials de suport tant en aplicacions de classificació com de regressió.[4][5]
Història
Entre 2001 i 2010, la investigació de l'ELM es va centrar principalment en el marc d'aprenentatge unificat per a xarxes neuronals d'alimentació anticipada d'una sola capa "generalitzada" (SLFN), incloses, entre d'altres, xarxes sigmoides, xarxes RBF, xarxes de llindar,[6] xarxes trigonomètriques, borroses. sistemes d'inferència, sèries de Fourier,[7][8] Transformada Laplacià, xarxes wavelet,[9] etc. Un assoliment significatiu aconseguit en aquests anys és demostrar amb èxit les capacitats universals d'aproximació i classificació de l'ELM en teoria.[7] [10][11]
Algorismes
Donada una única capa oculta d'ELM, suposem que la funció de sortida de la -el node ocult és , on i són els paràmetres de la -è node ocult. La funció de sortida de l'ELM per a xarxes de feedforward de capa oculta única (SLFN) amb nodes ocults és:
, on és el pes de sortida del -è node ocult.
és el mapeig de sortida de la capa oculta d'ELM. Donat mostres d'entrenament, la matriu de sortida de la capa oculta d'ELM es dona com:
i és la matriu objectiu de dades d'entrenament:
En termes generals, ELM és una mena de xarxes neuronals de regularització, però amb mapes de capes ocultes no sintonitzades (formades per nodes ocults aleatoris, nuclis o altres implementacions), la seva funció objectiu és:
on
Diferents combinacions de , , i es pot utilitzar i donar lloc a diferents algorismes d'aprenentatge per a regressió, classificació, codificació escassa, compressió, aprenentatge de funcions i agrupació.
Arquitectures
En la majoria dels casos, ELM s'utilitza com a xarxa d'alimentació anticipada de capa oculta (SLFN) que inclou, entre d'altres, xarxes sigmoides, xarxes RBF, xarxes de llindar, xarxes d'inferència difusa, xarxes neuronals complexes, xarxes wavelet, transformada de Fourier, transformada Laplacià, etc. A causa de les seves diferents implementacions d'algorismes d'aprenentatge per a la regressió, la classificació, la codificació escassa, la compressió, l'aprenentatge de característiques i l'agrupació, els multi ELM s'han utilitzat per formar xarxes de múltiples capes ocultes, aprenentatge profund o xarxes jeràrquiques.[12][13]
Referències
- ↑ Plantilla:Ref-publicació
- ↑ Plantilla:Ref-llibre
- ↑ Plantilla:Ref-publicació
- ↑ Plantilla:Ref-publicació
- ↑ Plantilla:Ref-publicació
- ↑ Plantilla:Ref-publicació
- ↑ 7,0 7,1 Plantilla:Ref-publicació
- ↑ Plantilla:Ref-publicació
- ↑ Plantilla:Ref-publicació
- ↑ Plantilla:Ref-publicació
- ↑ Plantilla:Ref-publicació
- ↑ Plantilla:Ref-publicació
- ↑ Plantilla:Ref-publicació