Skip to main content

Je avantage est une nouvelle technique, une intelligence artificielle pour résoudre les règles initiales et l'opération de la société humaine avec son fort potentiel de conversion. Les gens donnent le pouvoir de choix et décident même qui. Tout en profitant de la commodité, je ne crée pas consciemment de peur qu'ils soient dominés par quelqu'un.

 

Cette peur est caractérisée par divers films et bâtiments de science-fiction. Dans de nombreux mots, la réflexion de la société réelle, les critiques sont conformes aux normes, distinguent les algorithmes et les accusations de droits sociaux et de relations sociales avec des algorithmes, personne n'a pas peur de cette technologie révolutionnaire.


Dans une certaine mesure, cette peur vient de l'opacitéde l'algorithme. Les gens naturels auront peur des choses inconnues. Pour les humains, les algorithmes agissent comme des "boîtes noires" - nous sommes responsables de fournir des données, des modèles et une architecture, l'algorithme est responsable de donner des réponses, tandis que le processus d'opération du milieu n'est effectué que dans le noir. Cette méthode semble très pratique pour nous, mais le problème est que si l'activité de l'algorithme ne peut pas être suivie, elle n'est pas expliquée. Il provoquera vraiment que le type d'humain comprendra vraiment l'algorithme et ne peut pas contrôler l'algorithme de manière efficace, de sorte qu'il ne prévoit pas et ne résout pas le problème peut apporter le problème.

 

 

Impossible d'imaginer que lorsque les gens sont épinglés dans un destin à l'avenir pour créer une technique inconnue et inconnue. "Commenter sur la technologie MIT" Publié un article appelé "Dark Secret dans la sagesse artificielle", a souligné comment "personne ne connaît vraiment la machine mathématique mathématiqueDans quelle mesure, et cela deviendra une grande préoccupation. »Un rapport de l'Université de New York qui est actuellement dans cet institut, même responsable des organismes publics responsables des criminels français privés, des soins de santé, du bien-être social et de l'éducation à éviter d'utiliser la technologie AI.

 

La préoccupation potentielle de l'algorithme est devenue au centre de nombreuses préoccupations. L'esprit, et c'est aussi le vrai problème que l'algorithme et la nécessité de développer le besoin. Le désir humain comprend des algorithmes de mieux guider et d'utiliser algorithmes. De nombreuses sociétés Internet ont travaillé beaucoup de travail pour résoudre ce problème, mais ces efforts sont encore petits en raison des limites des différentes raisons objectives.


lundi, les algorithmes ne sont pas interrompus apporter une discrimination

À la conférence des développeurs de Google I / O 2019 du mois dernier, Google a publié un nom "TCAV" qui n'a pas reçu trop, car il y a été séchéNG doit recevoir trop de consommateurs se concentrer sur. Mais ce projet semble avoir une nouvelle solution pour les algorithmes d'anxiété cachées.


Le cuir Sandal a annoncé l'objectif de la nouvelle étape de Google lors de cette conférence: Construire un Google plus utile pour tout le monde. ("Construit plus utile pour tout le monde. Google"). Mais cet objectif est difficile car cela signifie que Google doit résoudre divers problèmes réels liés aux algorithmes, tels que les préjugés des algorithmes et de la discrimination. Chiuri a évidemment compris cela, il a souligné que le «biais» est toujours une question de préoccupation dans le domaine de l'apprentissage. Lorsqu'il se rapporte à l'intelligence manuelle, le risque de ce problème sera plus élevé.

 

De nombreuses personnes pensent que des algorithmes sont des technologies simples et non précieuses à dire, mais en fait, des algorithmes sont comme la créativité humaine, il existe une série de biais et de discrimination. Essence, algorithme de discrimination est pLes extensions Hoan distinguent des combinaisons sociales, car l'efficacité des algorithmes repose sur une grande quantité d'analyse de matériaux de données et la plupart de ces matériaux sont dérivés de la réalité sociale, de sorte que la nature et les selles des selles sont en réalité la discrimination de la structure sociale. Se déployer.


Par exemple, la formation de la formation pour effectuer une identification d'image, ce qui lui permet de choisir une carrière «médecin» à partir d'une série de photos professionnelles. Premièrement, nous devons fournir un grand nombre d'images de médecins sur des algorithmes et des algorithmes qui résument les caractéristiques de base de ces images, telles que des vestes blanches, des masques, des stéthoscopes, etc. Et les mettre en œuvre comme standard dans le travail d'identification, ce sera la même image de la fonctionnalité reconnaissant "médecin".

 

 

Cependant, le problème est dû à une réalité et à des raisons historiques différentes, dans la population du médecin actuel, la proportion d'hommes est vraiment plus élevée. L'algorithme a appris à travers l'étude ci-dessus et ne comprend pas que nous avons à lPrenez soin de faire des changements dans notre avenir et il est capable d'identifier le "homme" comme facteur associé de la profession "médecin", donc en identifiant les femmes. Dépistage du médecin.

 

Un autre exemple est l'algorithme lié à des emplois plus élevés que les devoirs recommandés par des hommes plus élevés que les femmes recommandées par les femmes, ainsi que le système d'identification pénale de la police des États-Unis reconnaîtront aux crimes noirs. Probabilités plus élevées. Par conséquent, le vrai biais du genre, de la race, etc. dure à travers un algorithme. La raison pour laquelle la discrimination est difficile à résoudre et la racine de l'algorithme est dans la question des algorithmes explicatifs. Si nous ne pouvons pas comprendre comment fonctionne l'algorithme, cela ne saura pas pourquoi il continuera de discriminer et de résoudre plus de problèmes de discrimination.

Toutefois, sous le mécanisme d'opération de la boîte noire de l'algorithme, les facteurs influents de quiconque de prendre des décisions vontIl tire évidemment un enfant devant la R & D. "Femme" Ce facteur d'influence ne montre pas les femmes et peut être exprimée comme une série de vecteurs de pixels pour décrire les caractéristiques de l'image corporelle, également pour des facteurs humains colorés et autres qui ont besoin de à supprimer. Cela conduit également à un personnel de R & D dans le passé pour s'appuyer sur "regarder un look" pour éliminer les préjugés dans l'algorithme.


Du point de vue réel, l'algorithme a également causé la déviation de la sensibilisation du public à quiconque, qui est l'une de ses nombreuses sources. Selon les facteurs, la question de la résolution de l'évaluation de l'algorithme est le consensus de base de l'industrie actuelle.

 

Pour Google, ce problème est plus urgent. Lorsque l'outil Smart est de plus en plus fonctionnel lorsque l'utilisateur effectue les tâches, la capacité à expliquer et la transparence de l'algorithme est extrêmement importante car elle est équivalente à la confiance et à l'entreprise d'utilisation plus commerciale de la technologie GOogle. Pixi a déclaré qu'il était nécessaire de construire un Google plus utile pour tout le monde, ce qui signifie résoudre les préjugés et aller à Google se concentrera sur l'amélioration de la transparence du modèle. Le gaz inférieur de ce moment est principalement de la technologie TCAV.

 

Mardi, TCAV, de savoir sur des personnes normales sur l'opération

TCAV est une abréviation de «Test avec le concept de déclenchement de vecteur). En raison de cette technologie principalement pour les développeurs et les scientifiques de données, non autorisé à Utilisez-le à des tiers, ce n'est donc pas le personnage principal de Google I / O 2019, et il a été donné par un rapport. Cependant, contrairement à la clé basse, TCAV est de très grandes perspectives d'application.


Dès le début de la conférence pour le développeur, le scientifique des données est l'équipe que l'équipe a publié une explication qui dépasse les fonctionnalités: inspection quantitative avec le papier d'activation conceptuel (TCAV), explique TCAV NGuyenInterrupteurs d'action. Globalement, TCAV est une méthode d'explication d'algorithme qui peut afficher visuellement le concept de ses propres activités de réseau neuronal et de gravité. Pour cette raison, TCAV est également une technologie de montage qui distingue les algorithmes car il peut être utilisé pour observer la tendance des algorithmes distinctifs dans d'autres modèles AI.
L'humanité ne peut pas comprendre les règles de fonctionnement de l'algorithme, car la différence "Méthode cognitive": Les humains utilisent souvent de nombreux concepts haut de gamme pour réfléchir et communiquer, et la plupart des modèles d'apprentissage font attention aux éléments de commande bas et à utiliser beaucoup de concepts abstraits pour "penser". Par exemple, les gens peuvent déterminer que les animaux dans une peinture sont des zèbres, principalement basés sur la forme, les rayures noires et blanches. Lire; Mais l'algorithme n'est pas la même, il inclut le poids des caractéristiques de différentes fonctionnalités. Pour les algorithmes, chaque pixel de l'image est un élément d'entrée, pratiquera tVibrez dans l'importance de chaque pixel dans l'image et donnez-lui les valeurs associées, comme base d'identification.
Le problème est que les gens ne peuvent pas comprendre la méthode d'identification utilisée par l'algorithme. Parce que nous sommes décrits dans la description des choses, vous utiliserez de nombreux concepts avancés tels que les couleurs, les formes, mais ne disent jamais que la valeur du sixième pixel de l'image est 33. Par conséquent, même si différentes valeurs sont créées par des opérations d'algorithme sont également. impuissant pour comprendre le fonctionnement de l'algorithme.

 

L'intention initiale d'expliquer est de rendre les personnes plus susceptibles de comprendre le modèle de modélisation, en particulier ceux qui manquent de fondement technique. Donc, cela peut valourner la façon dont l'algorithme fonctionne sous la forme de "concept avancé" que les gens peuvent comprendre? TCAV Technology essaie de résoudre ce problème.


Autre avec des méthodes d'explication typiques, les cibles TCAV sont l'exposition de variables de modèles de support àJe comprends. Il peut montrer un poids visuel de différents concepts avancés dans l'algorithme, tels que les couleurs, le sexe, la race, l'âge, le V.V. (Même si ce concept n'est pas un cours de formation).
Par exemple, un modèle bien formé peut détecter la surveillance des images en images avec Zebra et TCAV peut nous aider à comprendre quelles variables jouent? Lors de l'identification de l'image. Et combien d'importance ont été jouées, car cela nous aide à comprendre le principe de prédire le modèle. Comme on peut le voir sur les résultats, dans différents concepts, "Stripes" a le poids le plus élevé, "cheval", "Savanna" a le poids le plus bas, mais aussi 29%.
La fonction de TCAV est utilisée pour éditer des algorithmes, lorsque nous transférons ses capacités au modèle d'identification relatif à la réalité sociale, il est possible qu'il est clair que le modèle est lié à la discrimination. Exemple: un algorithme pour déterminer votre imageSen, peut être vu dans TCAV, avec des concepts d'identification de poids élevés, notamment des "vêtements blancs", "stéthoscope" et "hommes". Les deux premiers facteurs d'influence sont corrects, mais la décision de genre signifie que le modèle est le préjudice étant réparé par une formation supplémentaire.
D'un avenir plus large, TCAV peut facilement comprendre la "pensée" de l'algorithme car elle nous permet de comprendre chaque étape de l'algorithme. Parce que A obtient B, donc C, retirez enfin D. N'aime pas que toute entrée d'entrée de D est prise dans l'entrée de A. Cette fonctionnalité peut être appliquée à d'autres champs et non seulement utilisé pour éditer l'algorithme.

 

 

Le quatrième, conclu

 

TCAV est très important qu'il ne résout pas seulement le problème des algorithmes pouvant exagérer de manière extrêmement efficace, mais une langue de haut niveau utilisée utilisée par la forme humaine est présentée, Même sans plate-forme technique, il peut voir le niveau standard exploité par l'algorithme et peut résoudre le problème.Sous réserve de mathématiques mathématiques et de distinguer les algorithmes opportuns.


Pour savoir que des algorithmes et qui ne sont pas une ombre du diable des griffes, des craintes sans fin et de la tristesse impuissante. C'est comme un enfant qui étudie, et nous devons avoir voix à des outils explicatifs tels que TCAV, la compréhension et l'aide à grandir Mieux vaut mieux, il s'agit d'une manifestation des instructions technologiques de la technologie.

 

 

Sujets