Les chercheurs du MIT ont développé un moyen pour les réseaux de neurones d’apprentissage en profondeur d’estimer rapidement les niveaux de confiance dans leur sortie Cette avancée pourrait améliorer la sécurité et l’efficacité dans la prise de décision assistée par l’IA Crédit: WITH

More and more, les systèmes d’intelligence artificielle connus sous le nom de réseaux neuronaux d’apprentissage en profondeur sont utilisés pour éclairer les décisions vitales pour la santé et la sécurité humaines, comme la conduite autonome ou le diagnostic médical. Ces réseaux sont efficaces pour reconnaître les modèles dans de grands ensembles de données complexes pour aider à la prise de décision Mais comment savons-nous qu’ils ont raison? Alexander Amini et ses collègues du MIT et de l’Université de Harvard voulaient savoir

Ils ont développé un moyen rapide pour un réseau de neurones d’analyser les données et de générer non seulement une prédiction, mais également le niveau de confiance du modèle en fonction de la qualité des données disponibles Cette avancée pourrait sauver des vies, car l’apprentissage en profondeur est déjà déployé dans le monde réel aujourd’hui Le niveau de certitude d’un réseau peut être la différence entre un véhicule autonome qui détermine qu ’« il est tout à fait clair de traverser l’intersection »and« il est probablement clair, alors arrêtez-vous au cas où

Les méthodes actuelles d’estimation de l’incertitude pour les réseaux de neurones ont tendance à être coûteuses en calcul et relativement lentes pour les décisions en une fraction de seconde Mais l’approche d’Amini, nicknamed «régression probante profonde», accélère le processus et pourrait conduire à des résultats plus sûrs «Nous devons non seulement avoir des modèles performants, mais aussi comprendre quand nous ne pouvons pas faire confiance à ces modèles», déclare Amini, doctorante dans le groupe du professeur Daniela Rus au MIT Computer Science and Artificial Intelligence Laboratory (CSAIL)

Cette idée est importante et largement applicable Il peut être utilisé pour évaluer des produits qui reposent sur des modèles appris En estimant l’incertitude d’un modèle appris, nous apprenons également la quantité d’erreur à attendre du modèle et les données manquantes qui pourraient améliorer le modèle », déclare Rus

Amini présentera la recherche à la conférence NeurIPS du mois prochain, avec Rus, qui est le professeur Andrew et Erna Viterbi en génie électrique et informatique, directeur du CSAIL et vice-doyen de la recherche pour le MIT Stephen A Collège d’informatique Schwarzman; et les étudiants diplômés Wilko Schwarting du MIT et Ava Soleimany du MIT et de Harvard

Après une histoire de haut en bas, l’apprentissage en profondeur a démontré des performances remarquables sur une variété de tâches, dépassant même dans certains cas la précision humaine Et de nos jours, l’apprentissage profond semble aller partout où vont les ordinateurs Il alimente les résultats des moteurs de recherche, les flux de médias sociaux et la reconnaissance faciale «Nous avons eu d’énormes succès en utilisant le deep learning», déclare Amini «Les réseaux de neurones savent très bien connaître la bonne réponse 99% time”More 99 pour cent ne le couperont pas quand des vies sont en jeu

Une chose qui a échappé aux chercheurs est la capacité de ces modèles à savoir et à nous dire quand ils pourraient se tromper”, déclare Amini «Nous nous soucions vraiment de ce 1% du temps et de la façon dont nous pouvons détecter ces situations de manière fiable et efficace

Les réseaux de neurones peuvent être massifs et regorgent parfois de milliards de paramètres Cela peut donc être une lourde charge de calcul juste pour obtenir une réponse, sans parler d’un niveau de confiance L’analyse d’incertitude dans les réseaux de neurones n’est pas nouvelle Mais les approches précédentes, issues de l’apprentissage profond bayésien, reposaient plusieurs fois sur l’exécution ou l’échantillonnage d’un réseau de neurones pour comprendre sa confiance. Ce processus prend du temps et de la mémoire, un luxe qui n’existe peut-être pas dans le trafic à grande vitesse

Les chercheurs ont conçu un moyen d’estimer l’incertitude à partir d’une seule exécution du réseau neuronal Ils ont conçu le réseau avec une sortie agrandie, produisant non seulement une décision, mais également une nouvelle distribution probabiliste capturant les preuves à l’appui de cette décision. Ces distributions, appelées distributions probantes, capturent directement la confiance du modèle dans sa prédiction Cela inclut toute incertitude présente dans les données d’entrée sous-jacentes, ainsi que dans la décision finale du modèle Cette distinction peut indiquer si l’incertitude peut être réduite en ajustant le réseau neuronal lui-même, ou si les données d’entrée sont simplement bruyantes

Pour mettre leur approche à l’épreuve, les chercheurs ont commencé par une tâche difficile de vision par ordinateur Ils ont formé leur réseau neuronal pour analyser une image couleur monoculaire et estimer une valeur de profondeur (ie distance de l’objectif de la caméra) pour chaque pixel Un véhicule autonome peut utiliser des calculs similaires pour estimer sa proximité avec un piéton ou un autre véhicule, ce qui n’est pas une tâche simple

Les performances de leur réseau étaient comparables à celles des modèles de pointe précédents, mais il a également acquis la possibilité d’estimer sa propre incertitude Comme les chercheurs l’avaient espéré, le réseau projetait une incertitude élevée pour les pixels là où il prédisait la mauvaise profondeur «Il était très calibré en fonction des erreurs commises par le réseau, ce que nous pensons être l’une des choses les plus importantes pour juger de la qualité d’un nouvel estimateur d’incertitude», explique Amini

Pour tester leur calibrage, l’équipe a également montré que le réseau projetait une incertitude plus élevée pour les données «hors distribution» – des types d’images totalement nouveaux jamais rencontrés pendant la formation Après avoir formé le réseau sur les scènes d’intérieur à domicile, ils l’ont alimenté avec un lot de scènes de conduite en extérieur. Le réseau a constamment averti que ses réponses aux nouvelles scènes extérieures étaient incertaines Le test a mis en évidence la capacité du réseau à signaler les cas où les utilisateurs ne devraient pas faire entièrement confiance à ses décisions Dans ces cas, “s’il s’agit d’une application de soins de santé, peut-être que nous ne faisons pas confiance au diagnostic que le modèle donne et cherchons plutôt un deuxième avis”, déclare Amini

Le réseau savait même quand les photos avaient été falsifiées, ce qui pouvait potentiellement se prémunir contre les attaques de manipulation de données Dans un autre essai, les chercheurs ont augmenté les niveaux de bruit contradictoires dans un lot d’images qu’ils ont transmis au réseau. L’effet était subtilà peine perceptible à l’œil humainmais le réseau a reniflé ces images, marquant sa sortie avec des niveaux élevés d’incertitude. Cette capacité à sonner l’alarme sur des données falsifiées pourrait aider à détecter et à dissuader les attaques adverses, une préoccupation croissante à l’ère des deepfakes.

La régression probante profonde est «une approche simple et élégante qui fait progresser le domaine de l’estimation de l’incertitude, ce qui est important pour la robotique et d’autres systèmes de contrôle du monde réel», explique Raia Hadsell, chercheuse en intelligence artificielle chez DeepMind qui n’a pas participé à l’oeuvre «Ceci est fait d’une manière nouvelle qui évite certains des aspects désordonnés d’autres approcheseg échantillonnage ou ensemblesce qui le rend non seulement élégant mais aussi plus efficace en termes de calculune combinaison gagnante

Une régression probante profonde pourrait améliorer la sécurité dans la prise de décision assistée par l’IA «Nous commençons à voir beaucoup plus de ces modèles de [réseau neuronal] sortir du laboratoire de recherche et dans le monde réel, dans des situations qui touchent les humains avec des conséquences potentiellement mortelles», déclare AminiTout utilisateur de la méthode, qu’il s’agisse d’un médecin ou d’une personne occupant le siège passager d’un véhicule, doit être conscient de tout risque ou incertitude associé à cette décision.«Il envisage le système non seulement en signalant rapidement l’incertitude, mais aussi en l’utilisant pour prendre des décisions plus conservatrices dans des scénarios risqués comme un véhicule autonome s’approchant d’une intersection.

«Tout domaine qui aura un apprentissage automatique déployable doit en fin de compte avoir une conscience fiable de l’incertitude», he says

Ce travail a été soutenu, in part, par la National Science Foundation et le Toyota Research Institute par le biais du Centre de recherche commun Toyota-CSAIL

SciTechDaily: Accueil des meilleures actualités scientifiques et technologiques depuis 1998 Tenez-vous au courant des dernières nouvelles de la science par e-mail ou sur les réseaux sociaux

Des scientifiques travaillant avec les données de l’expérience d’évolution galactique de l’Observatoire Apache Point (APOGEE) de Sloan Digital Sky Surveys ont découvert une «fossil galaxy» cachée dans le

Artificial intelligence, réseau de neurones artificiels, apprentissage en profondeur, machine learning, research, Alexander Amini

News – GB – Artificial intelligence neural network learns when not to trust
Associated title :
Le réseau neuronal d’intelligence artificielle apprend quand il ne devrait pas être fiable
Le réseau neuronal apprend quand il ne doit pas être fiable

Source: https://scitechdaily.com/artificial-intelligence-neural-network-learns-when-it-should-not-be-trusted/

Building on its expertise in the areas of digital, technologies and processes , CSS Engineering you in your most ambitious transformation projects and helps you bring out new ideas, new offers, new modes of collaboration, new ways of producing and selling.

CSS Engineering is involved in projects each customer as if it were his own. We believe a consulting company should be more than an advisor. We put ourselves in the place of our customers, to align we incentives to their goals, and collaborate to unlock the full potential their business. This establishes deep relationships and enjoyable.

Our services:

  1. Create professional websites
  2. Hosting high performance and unlimited
  3. Sale and video surveillance cameras installation
  4. Sale and Installation of security system and alarm
  5. E-Marketing

All our achievements here https://www.css-engineering.com/en/works/