En tant que collection de données célèbres de AI, Imagenet a promu une percée dans des techniques visuelles sur ordinateur. Depuis que Imagenet Papers, il a été publié sur Google Scholar, qui était de 2 6115 et de papier a également obtenu des prix de papier classiques CVPR 2019.
Toutefois, avec la maturité de la technologie visuelle de l'ordinateur, il existe de plus en plus d'applications, de confidentialité et de préjudice dans l'imagenet entraîne également un grand débat, tel que certaines cartes, y compris le racisme Discrimination sexuelle, pornographie , etc.
Pour les problèmes de confidentialité du mode de moulage de la personne dans le jeu de données, cela n'a jamais eu de nouveau ajustement dans les derniers points de contact.
Récemment, l'équipe de gestion Imagenet a donné un nouveau document "une étude de l'obfuscation à Imagenet", ce qui provoque un processus flou de Face à Imagenet.
Papier de liaison: https: //arxiv.orG / PDF / 2103.06191.pdf
Adresse du projet: https: //github.com / PrincetonVisualai / IMAGEnet-FacenVisualai / IMAGEnet-Facenet DataSenet ensembles de données contiennent environ 1,5 millions d' images et 1000 étiquettes, les propriétaires faibles pour évaluer la performance de la machine algorithmes, ou spécifiques de train algorithmes de travail informatique. peintures brouillées sont liées à 24,3198 dans l'ensemble de données.
Plus précisément, les chercheurs ont beaucoup de profondeur pour vérifier le réseau nerveux sur l'image de visage flou, et le taux d'identité générale est légèrement abaissée (≤0.68%). Les chercheurs ont ensuite apprendre à passer à 4 missions en aval « déterminer le but, déterminer la scène, sorte d'attribut détection de visage et objectif », ce qui indique que les caractéristiques de l' apprentissage sur les images visage floue peuvent également être déplacés.
Dans la « Connexion », le rapport pertinent, l' un des gestionnaires de IMAGEnet, professeur agrégé Princeton adjoint, Olga Russakovsky, a déclaré: « Nous sommes très préoccupés par le problème de la propriété »
"Le visage apparaît dans ces données est aléatoire", en d'autres termes, dans une photo montrant des bouteilles de bière, même si la bière est bloquée, ce qui affecte-t-il vos bouteilles de bière?
Figure 1: Imagenet (. Russakovsky et al, 2015) Pas dans la plupart des types de personnes. Ces images contiennent de nombreux objectifs et se rapportent à tous, formant une menace privée potentielle. Comme des chaises de coiffure, des bouteilles d'husky, de la bière, du volley-ball et des uniformes.
Les documents ont également supposé que flouent la face et n'affectait pas la performance de l'algorithme d'identification cible sur la base de la formation à Imagenet. Russakovsky a déclaré: "Nous espérons prouver cette idée visuelle des écoles de collecte de données pour explorer une voie de secours."
En même temps, l'équipe a également été introduite dans cet article Fauche Face utilisée AI d'Amazon qui "bien sûr", aussiCe processus a ajusté les étapes de validation humaine.
Flou peut résoudre le problème?
Ce n'est pas la première fois d'ajuster l'imagenet. En décembre 2019, l'équipe Imagenet a supprimé les cartes de biais et d'insultes. En juillet 2020, Unifidid Vinay Prybhu et l'Université Dublin Abeba Birhane ont publié un article "Grandes données: Guerre gagnant pyrrhique pour la vision de l'ordinateur?". Des recherches ont révélé des incidents de données d'image à grande échelle existants: ils peuvent identifier un ensemble de données distinct, y compris des chercheurs scientifiques informatiques, même constatés que les données contiennent les images érotiques.
Vinay Tibhu a également brillé le visage, mais l'équipe Imagenet n'a pas reconnu sa contribution à la recherche et à Birhane, ce qui lui faisait se sentir déçu. Après Li Feifei et al. Paper Publishing, et Birhane, il a écrit un long article pour exprimer des vuesleur.