La fonction de perte est le noyau de la fonction de risque d'expérience et constitue également une partie importante de la fonction de risque structurel. La fonction de risque structurel du modèle inclut des risques et des éléments ordinaires à base d'expérience, peut souvent être représenté comme suit:
un. Journal de journal (régression logique)
Certaines personnes peuvent sentir que la perte de la fonction de perte de la régression logique est une perte carrée, en vraie méditerranéenne et non. La fonction de perte peut être dérivée de la régression linéaire dans l'hypothèse que l'échantillon est la distribution gaussienne et la régression logique n'est pas perdue.. Dans l'origine de la régression logique, il suppose que l'exemple de service est distribué de Bernuger (Distribution 0-1), puis la possibilité de réagir à la distribution, puis de prendre le nombre d'extractions. Les profits logiques ne recherchent pas une valeur extrême des fonctions, mais d'extrêmement comme une sorte de pensée, puis d'obtenir sa fonction fonctionnelle au risque: une capacité minimale négative (c'est-à-dire max f (y, f (y, f) (x) - & gt ; Min -f (y, f (x)))). Du point de vue de la fonction de perte, il est devenu une fonction de perte de perte.
Formulaires de perte de journal standard:
Il suffit de dire que le nombre de tuberculose est de conseiller les mathématiques, car dans mle, les instructions directes sont plus difficiles, il est donc généralement fait pour récupérer des logarithmes pour trouver des points de valeur extrêmes. La fonction de perte de la fonction l (y, p (y | x)) est indiquée que l'échantillon X atteint la valeur maximale en cas de classification médicale, en d'autres termes, il est d'utiliser une distribution d'échantillons connue pour trouver plusieurs choses possibles (tLa mémoire est la probabilité maximale) qui conduit à la valeur de paramètre de cette distribution; Ou tout paramètre peut nous faire respecter la probabilité maximale de ce jeu de données). Parce que la fonction de journalisation est monotone, Logp (Y | x) atteindra également le maximum, donc après avoir ajouté à l'avance, la maximisation de P (Y | X) est équivalente à la minimisation de L.
Logic Expression p ( y = y | x) comme suit (pour unifier la carte de liste Y y est 1 et 0, l'expression est séparée):
Mettez-le dans la formule ci-dessus , en sortant de l'expression de la fonction de trou de logistique, comme suit:
[La formule de but a été obtenue par régression logique GET enfin comme suit:
ci-dessus est de classer la deuxième. Ici, certaines personnes pensent que la régression logique est une perte carrée car elle ressemble beaucoup à la répétition de sessions et à perdre des carrés tout en utilisant une pente progressive. Illusion visuelle.
Il existe un PDF qui peut être mentionné: conférence 6: registre logistique.pdf.
II. Moyens de perte de fonction (multiplicateur minimum minimum, carré minimum normal)
Calcul simple et pratique;
La distance est un très bon standard similaire; Les propriétés caractéristiques n'ont pas changé après différentes spécifications.
Les formes de perte standard de moyens sont les suivantes:
Lorsque l'échantillon N, la perte de fonction à ce stade devenant:
YF (X) est indiqué par le reste et la forme complète spécifiée. Le carré du reste et notre objectif est de minimiser cette fonction cible (Remarque: Ce formulaire n'est pas ajouté à l'élément normal), ce qui signifie que le solde minimum du total gauche, RSS.
Dans des applications pratiques, la moyenne (MSE) est souvent utilisée comme indicateur de mesure et formule comme suit:
La régression linéaire mentionnée ci-dessus, ajoutant ce complément, nous avons généralement deux cas, une affaire est la linéaire fonction de la balleIl s'agit de la fonction linéaire de la variable x, l'un est le milieu qui est une fonction linéaire du paramètre α. Dans la machine d'apprentissage automatique, il est souvent mentionné dans le cas suivant.
Mardi, la fonction perd des chapeaux
Ceux qui ont appris que les algorithmes adaboost savaient qu'il était en avance sur des cas spéciaux d'algorithmes supplémentaires, chaque étape est un modèle plus un point et la fonction de perte est une fonction d'index. Dans Adaboost, après répétition, FM (x):
]
La forme standard de la perte de chapeau (perte d'exp) est la suivante
peut voir que la formule ciblée Adaboost est perdre l'index. Lorsqu'un certain N Sample, la fonction de perte d'Adaboost est la suivante:
Introduction au départ de Adaboost, pouvez-vous faire référence à Wikipedia: Adaboost ou "Statistiques d'apprentissage de la méthode" P145 .
quatre, fonctions de copies perduesMarges (SVM)
Côté de la partie:
Par conséquent, l'original est transformé en:
Si λ = 12Cλ = 12cs peut voir que la formule peut voir que la formule et la formule suivantes sont très similaires:
ll dans la première moitié est la fonction de perte de charnières et le dos équivaut à des articles normaux L2.
Forme standard de perte
L (Y) = max (0, 1-YY ~) Y = ± 1L ( Y) = max (0, 1-yy ~), y = ± 1
peut voir que lorsque | Y | & Gt; = 1, L (Y) = 0.
Plus de contenu, reportez-vous à la perte de charnière.
Supplément: un total de 4 fonctions nucléaires chinoises peuvent être sélectionnées dans Libsvm, respectivement:
Noyau linéaire 0;
1-Core DUn noyau conscient
Noyau 3-Sigmoïde.
Jeudi, d'autres fonctions de perte