Skip to main content

1. Structure du système proposée





Structure générale du système de promotion Google Apps, lorsque l'utilisateur Navigateur sur l'App Store, il générera le comportement correspondant, y compris les utilisateurs, l'élément, le comportement, etc écrit un par un. Dans le même temps, ces comportements utilisateur seront également accompagnés de requêtes et d'impressions. Pour ces questions, l'application sera prise pour le comportement de l'utilisateur. Les résultats de la recherche sont d'apporter une liste d'articles connexes aux groupes candidats, souvent différents modèles + règles artificielles. Ensuite, les résultats du groupe candidat sont supérieurs au nombre d'articles que nous avons introduits. Il existe donc un système de classement pour marquer ce point. L'emplacement habituel est montré sous forme de probabilité, à savoir P (y | x), où X représente les caractéristiques de l'utilisateur, généralement les fonctionnalités de l'utilisateur, les fonctionnalités d'élément, les caractéristiques de contexte et similaires. Y représente certaines actions faites parLes utilisateurs, tels que l'achat ou le téléchargement, P représente la probabilité de créer ce comportement. Les modèles décrits ici sont principalement utilisés dans la deuxième étape: classement.


Deux. Queue et ampli; Profond



2016, Google a largement proposé et AMP; Profondément modèle pour le contexte commercial de Google Play. PAPIER 1: Modèles linéaires généraux combinés à des applications généralisées qui transforment les tâches de classification et de régression non linéaires dans des données d'entrée à grande échelle, des méthodes de nouvelle efficacité de nouvelles fonctionnalités, mais il existe un grand nombre de fonctionnalités. De plus, les méthodes basées sur la PME peuvent créer des fonctionnalités de hauteur supérieures qui ne peuvent pas être présentées, mais cette méthode prédit que les résultats sont généralement généraux, de sorte que les éléments sont liés à être recommandés trop faibles. Par conséquent, large et ampli; Deep est également généré en conséquence. Les résultats expérimentaux montrent également large et amplifuge; La méthode plus profonde est pireDites uniquement les méthodes larges et seules. Regardons vastes et amplis; Détails internes profonds.

De gros défis pour les systèmes recommandés et les arrangements de recherche sont les suivants: Comment rendre les résultats de plus de modèles de mémorisation et de généralisation. Cela signifie que le modèle doit avoir une mémoire de comportement historique des utilisateurs et des modèles a également une meilleure généralisation. La mémoire peut transmettre des sujets ou des commentaires avec des informations plus connectées et une généralisation plus diversifiée pour introduire des résultats. Donc, il existe un moyen de faire le modèle d'avoir ces deux avantages? Bien sûr, large et ampli; Deep est un bon modèle. Structure, large et ampli; Deep est vraiment une combinaison de LR et de DNN, et sa partie LR nécessite toujours des caractéristiques artificielles pour refléter la combinaison de caractéristiques et de DNNS.


Deep & Amp; Large est vraiment un grand progrès, mais pour les grandes parties, un grand nombre de projets artificielsC Exigences et programmeurs "Vous voulez paresseux" disant que le projet de fonctionnalité réel causant des problèmes et de DeepFM est né pour cela.

Trois. DeepFM


Deepfm est originaire de Huawei, conçu principalement de 2016 Wide & Amp; Inspiration profonde. À propos du papier de DeepfM, 2017 et 2018 a été publié, mais cet article introduit principalement la structure de DeepFM, temporairement ou aucune autre question. Sa structure est illustrée à la figure 3:


DeepFM peut être formée au début à la fin, sans aucune caractéristique de la fonctionnalité. FM est une fonctionnalité de commande basse, DNN est une fonction de niveau supérieur.

Une formation plus efficacement, à la fois large et profonde a la même entrée et le même vecteur intégré. Comparé à large et ampli; ver, en raison de large et ampli; Deep nécessite des caractéristiques artificielles, la complexité du modèle est ajoutée.

Les résultats ont prédit la TLB plus précisément.


En termes de prédiction, les expressions sont les suivantes:


    FM

La section large de DeepFM est FM, c'est-à-direGénérateur électronique, Rendle a été proposé en 2010, utilisé pour créer des caractéristiques interactives des scènes proposées et des détails spécifiques pouvant traiter des principes d'analyse et de pratique de l'auteur d'algorithme. Dans DeepFM, FM est principalement utilisé pour apprendre des fonctionnalités à faible commande et ses expressions cible comme suit:


DeepFM Deep Breffm En tant que réseau nerveux en fourrage, principalement utilisé pour apprendre des caractéristiques de niveau supérieur. Mais comparé à l'original & amp; Deep, il possède de nombreux amples différents par rapport à 2016. L'entrée de DNN en profondeur peut être extrêmement clairsemée et des fonctions de fonctionnalités et de fonctions de fonctionnalités sont constamment couvertes et que l'école est emballée, dans DeepFM, DNN est l'entrée et la saisie partagées avec la section large .

L'expression de sortie est la suivante:


Contraste de modèle



Le noyau de cet article est deepfm, quel est le Performance de DeepFM par rapport à d'autres modèles? Comme simontré à la figure 5, DeepFM et Wide & Amp; Quelle est la différence profonde résumée ci-dessus, quelle est la différence entre la FNN et le PNN? Tout d'abord, quelle est une brève introduction, qu'est-ce que FNN et PNN. FNN est un réseau nerveux avantageux utilisant FM, à l'aide de FM à former à l'avance, de sorte que sa précision et sa performance doivent obtenir l'impact des paramètres de phase FM, en plus de cela, le seul FNN peut apprendre des fonctionnalités de haut niveau, incapable d'apprendre bas Caractéristiques de l'ordre. Pour PNN, un réseau nerveux total basé sur le produit, PNN ajoute une couche de produit entre la couche intégrée et cachée pour obtenir des fonctionnalités de niveau supérieur. Selon différents types de produits, il est divisé en IPNN, OPNN, PNN *. Comme le FNN, le PNN ignore des informations sur les fonctionnalités à faible commande, mais PNN ne nécessite pas d'anticipation. Le résultat global de contraste est tel qu'il est indiqué dans le tableau 1.

5. Combinée

Cet article présente principalement un large et ampli; Deep et profonde et deux structures sont analysées. De la grande direction, les deuxIntégrer les fonctionnalités de commande basse.En revanche, DeepFM a moins de pas pour construire des fonctionnalités, semble plus flexible.Si le lecteur a des questions sur les détails, vous pouvez vous reporter à l'article original et il a été donné dans la référence.Dans un article suivant, nous augmenterons progressivement la pratique du modèle correspondant, alors suivez le suivi.

6.Runérences

DeepFM: réseaux de neurones basés sur le score faible de la prédiction TLB
DeepFM: Add-to-Fin & Amp;Cadre d'apprentissage profond pour la prédiction TLB

large et ampli;Apprentissage profond sur le système d'introduction
Modèle classique Prédictant CTR: GBDT + LR

Analyse et principe pratique de FM Algorithme https://www.cnblogs.com/arachis /p/ftrl.html


Catégories