Dimensió de Vapnik–Chervonenkis

De testwiki
Salta a la navegació Salta a la cerca
Diagrama de classificació binària.

En la teoria de Vapnik–Chervonenkis, la dimensió de Vapnik–Chervonenkis (VC) és una mesura de la capacitat (complexitat, poder expressiu, riquesa o flexibilitat) d'un conjunt de funcions que es poden aprendre mitjançant un algorisme de classificació binària estadística. Es defineix com la cardinalitat del conjunt més gran de punts que l'algorisme pot trencar, el que significa que l'algoritme sempre pot aprendre un classificador perfecte per a qualsevol etiquetatge d'almenys una configuració d'aquests punts de dades. Va ser definit originalment per Vladimir Vapnik i Alexey Chervonenkis.[1]

De manera informal, la capacitat d'un model de classificació està relacionada amb la complexitat que pot ser. Per exemple, considereu el llindar d'un polinomi d'alt grau: si el polinomi es valora per sobre de zero, aquest punt es classifica com a positiu, en cas contrari com a negatiu. Un polinomi d'alt grau pot ser ondulat, de manera que pot adaptar-se bé a un conjunt determinat de punts d'entrenament. Però es pot esperar que el classificador cometi errors en altres punts, perquè és massa ondulant. Aquest polinomi té una gran capacitat. Una alternativa molt més senzilla és llindar una funció lineal. És possible que aquesta funció no s'ajusti bé al conjunt d'entrenament, perquè té una capacitat baixa.[2][3][4][5]

Usos en teoria de l'aprenentatge estadístic: La dimensió VC pot predir un límit superior probabilístic de l'error de prova d'un model de classificació. VapnikPlantilla:Sfn va demostrar que la probabilitat que l'error de la prova (és a dir, el risc amb la funció de pèrdua 0-1) s'allunyi d'un límit superior (en dades extretes iid de la mateixa distribució que el conjunt d'entrenament) ve donada per:

Pr(error de testerror d'entrenament+1N[D(log(2ND)+1)log(η4)])=1η,

on D és la dimensió VC del model de classificació, 0<η1, i N és la mida del conjunt d'entrenament (restricció: aquesta fórmula és vàlida quan DN . Quan D és més gran, l'error de prova pot ser molt més gran que l'error d'entrenament. Això es deu a un sobreajust).

La dimensió VC també apareix als límits de complexitat de la mostra. Un espai de funcions binàries amb dimensió VC D es pot aprendre amb:

N=Θ(D+ln1δε)

mostres, on ε és l'error d'aprenentatge i δ és la probabilitat de fallada. Així, la complexitat de la mostra és una funció lineal de la dimensió VC de l'espai d'hipòtesi.

Referències

Plantilla:Referències