Skip to main content

Formule mathématique de droit Bayes (


Lundi, ALGORITHM BAYES SIMPLE


1, Définition
Naive Bayes, NB) est la "caractéristique indépendante" Cette hypothèse simple, algorithme de surveillance à appliquer le théorème bayésien est l'algorithme de classification;
La caractéristique de masse de l'échantillon x x1, x2, xm; La probabilité du type de médicament de x échantillon peut être prélevée à partir de baies formule:

2, GAP

Le king des algorithmes de classification et l'algorithme de classification de l'arbre de décision final a également prédit le déterminé Résultats de la classification de l'Express, mais parfois, la classification crée un résultat d'erreur; Un algorithme de classification de Bayes simple offre des résultats optimaux de conjectures et l'estimation de probabilité de la prédiction est donnée.
3, dérivé
(1) Attribut de fonctionnalités X indépendant, de sorte qu'il a obtenu
(2) Optimisation

[3) En raison de la valeur nominale inchangée pour tous les poissonsC type C, parce que nous n'avons besoin que de maximiser les molécules. En outre, parce que chaque attribut en vedette est indépendant, il existe



4, processus
Set x = {A1, A2, A2, A2 et hellip ; & hellip; AM} est un attribut de fonctionnalité X en tant qu'attribut typique;
La collection de classe est c = {y1, y2 et hellip; & hellip ;, yn};

Calculatrice P (Y1 | X), P (Y2 | X), & hellip; & hellip ;, p (yn | x) valeur (formule BAYES)


Mardi, Bayes Gaussi
Les baies naïfs de Gaussien mentionnées sont une valeur continue et des vêtements dispersés De la distribution gaussienne, la formule de probabilité de distribution gaussienne peut être utilisée directement lors du calcul de P (x | y), d'autres combinés avec des baies Menu simple
,
Quatrièmement, Bernoulli, Bayes
Bernoulli Naif Bayes mentionné lorsque les fonctionnalités de la propriété sont une valeur continue et sont distribuées de la distribution de Bernuger alors dans le calcul de p (x | y), la formule de probabilité de la distribution de Bernoulli peut être utilisée directement:
La distribution Bernui est un type de distribution discrète, seuls deux résultats possibles. 1 signifie réussir, la probabilité semble être p; 0 signifie échec, la probabilité de se produire est q = 1-p; Dans lequel la moyenne est E (x) = p, la variance est VaR (x) = P (1-p)

Cinq, Multi-organe Plaza Bayes


Définition

Bayes polyvalents naïfs fait référence à des attributs de distribution spécifiques (la fonctionnalité est lorsque des formulaires amovibles), pour chaque type Y, chaque caractéristique d'attribut a un paramètre & theta; y = (& theta; y1, & theta; y2, hellip; & hellip; & theta), yn), où n est la quantité de valeur de l'attribut de fonctionnalité, la probabilité de p (xk = i | y) est & theta; Yi.


Exemple d'application

Le problème que nous devons résoudre est certaines personnes sur tWeb Roasted Web a publié de nouvelles informations d'achat, quatre fonctionnalités d'achat d'informations ne sont pas disponibles dans la bibliothèque de mots. Pas de détails, pas de détails, pas d'adhésion, besoin d'évaluer ces informations d'achat est correct


1, phase de préparation

Définition de l'attribut Feature X = {A1, A2, A3, A4}

A1 a été libéré d'informations d'achat de notre langue;

A2 a accordé le code de test dans le numéro de téléphone mobile lorsque les informations ont été publiées;

Les informations d'achat émises par A3 sont plus détaillées;

A4 Editeur est membre du site Web;

Identifier c = {Y1, Y2}


Y1 indices sont des achats réels;
Trail Y2 pour acheter mal;
Formation à l'échantillonnage
Sample Data comme suit:
2, phase de formation

I Calculera chacun une capacité de données importante, selon la limite centrale, la fréquencePar probabilité):
1. P (Y = true) = 6/12 (nombre total d'échantillons) = 1 / 2

2. P (y = faux) = 6/12 (numéro d'échantillon total) = 1/2

[2) Calculer toutes les probabilités avec des pages de choses sont divisées (x | Y)


Dans des conditions réelles


Pour les caractéristiques, aucune chose de faits calculé à partir du produit:
P (x1 = du produit | Y) = 1/2
P (x1 = non du produit | y) = 1/2 [1/2

Avec ou sans numéro de téléphone mobile Vérification des conditions conditionnelles:

P (x2 = vérification | y) = 5/6

P (x2 = pas de vérification | y) = 1/6


CONDITIONS DE CALCULATION Pour acheter des fonctionnalités détaillées:

P (x3 = Détails | Y) = 5/6

P ( x3 = pas de détails | y) = 1/6


Pour calculer la fonction shopping détailléeVérifiez les conditions de calcul:
P (x4 = membre | Y) = 5/6
P (x4 = pas un membre | y) = 1/6
dans des erreurs Conditions:

Pour des caractéristiques sans conditions calculées à partir du produit:

P (x1 = mots produits | y) = 2/3

P (x1 = non du produit | y) = 1/3
Cette fonction permet de vérifier le calcul des conditions de calcul:
P (x2 = vérification | Y) = 1/2
p (x2 = aucune vérification | y) = 1/2
Pour plus de détails sur la fonction de test de calcul de l'approvisionnement:
P. = Détails | Y) = 0
P (x3 = pas de détails | Y) = 1
Pour plus de détails Caractéristiques des achats Conditions de calcul:
P (X4 = Membre | Y ) = 1/3

[x4 = pas un membre | y) = 2/3

3, étape d'application
Le modèle X est actuellement (aucun mot dans la bibliothèque, aucun numéro de numéro de téléphone mobile, pas besoin de savoir de coordonnées, aucun membre n'est publié)

(1) Le calcul de cet indice est une probabilité réelle

p (xi | y = true) = p (x1 = non du produit | y) * p (x2 = pas vérifier | y) * p (x3 = pas de détails | y) * p (x4 = pas un membre | y)

= 1/2 * 1/6 * 1/6 * 1/6

P (y = true) = 1/2


(2) Calculez cet indice dans la probabilité de fausse

P (xi | y = false) = p (x1 = non du produit | y) * p (x2 = ne passe pas la vérification de la vérification | y) * p (x3 = pas de détails | y) * p (x4 = pas un membre | y) [y = false) = 1/2

[
] (3) Comparaison P (Y = FALSE | X1, X1, X3, X4) et P (Y = TRUE | Taille X1, X2, X4 , x4), choisirMaking T Langue Than Language X Classification, cet indice est faux
sept, avantages et inconvénients


. , ] , . , . . , . . , Avantages: les algorithmes logiques sont simples, Facile à mettre en œuvre; Inconvénients: Si la relation entre d'importants caractéristiques, les effets de classification ne sont pas bons.

Sujets