L’intelligence artificielle est de plus en plus centrale dans notre vie quotidienne, des voitures sans conducteur au diagnostic médical Mais bien que ces réseaux de nouvelle génération excellent dans la reconnaissance de modèles dans des ensembles de données complexes, les ingénieurs ne comprennent que maintenant comment nous savons quand ils sont corrects.

Des experts en IA ont développé une méthode pour modéliser le niveau de confiance de la machine en fonction de la qualité des données disponibles

Cette idée est importante et largement applicable Il peut être utilisé pour évaluer les produits qui s’appuient sur des modèles appris

Les ingénieurs du MIT s’attendent à ce que cette avancée puisse éventuellement sauver des vies, car l’apprentissage en profondeur est désormais largement déployé au quotidien

Par exemple, le niveau de certitude d’un réseau peut être la différence entre un véhicule autonome déterminant entre un carrefour clair et “c’est probablement clair, alors arrêtez-vous juste au cas où”

Cette approche, dirigée par Alexander Amini, doctorant au MIT, surnommée «régression probante profonde», accélère le processus et pourrait conduire à une technologie d’IA encore plus sûre.

Il a déclaré: «Nous devons non seulement avoir des modèles performants, mais aussi comprendre quand nous ne pouvons pas faire confiance à ces modèles

“Cette idée est importante et largement applicable Il peut être utilisé pour évaluer des produits qui reposent sur des modèles appris

“En estimant l’incertitude d’un modèle appris, nous apprenons également le taux d’erreur à attendre du modèle et les données manquantes qui pourraient améliorer le modèle”

L’analyste IA ajoute comment les approches précédentes de l’analyse d’incertitude sont basées sur l’apprentissage profond bayésien

Il s’agit d’un processus nettement plus lent, un luxe inexistant dans le monde réel où les décisions peuvent faire la différence entre la vie et la mort

“Une chose qui a échappé aux chercheurs est la capacité de ces modèles à savoir et à nous dire quand ils pourraient se tromper

À NE PAS MANQUER Danger d’astéroïdes: une certitude d’impact à 100% avertit l’expert spatial [INTERVIEW] Hubble capture la galaxie «comme un portail vers une autre dimension» [PHOTOS] Les scientifiques construisent un robot «conscient de lui-même» capable de se RÉPARER LUI-MÊME [ANALYSE]

“Nous nous soucions vraiment de ce pourcentage du temps et de la manière dont nous pouvons détecter ces situations de manière fiable et efficace”

Les chercheurs ont commencé par une tâche difficile de vision par ordinateur pour mettre leur approche à l’épreuve

Ils ont formé leur réseau neuronal pour analyser une image et estimer la profondeur focale de chaque pixel

Les voitures autonomes utilisent des calculs similaires pour estimer la proximité d’un piéton ou d’un autre véhicule – pas de tâche simple

Comme les chercheurs l’avaient espéré, le réseau projetait une incertitude élevée pour les pixels là où il prédisait la mauvaise profondeur

Amini a déclaré: «Il était très calibré en fonction des erreurs commises par le réseau, ce qui, à notre avis, était l’une des choses les plus importantes pour juger de la qualité d’un nouvel estimateur d’incertitude.”

Le test a révélé la capacité du réseau à signaler les cas où les utilisateurs ne devraient pas faire entièrement confiance à ses décisions

Dans de tels exemples, “s’il s’agit d’une application de soins de santé, peut-être que nous ne faisons pas confiance au diagnostic que le modèle donne et cherchons plutôt un deuxième avis”, a ajouté Amini

Dr Raia Hadsell, chercheuse en intelligence artificielle DeepMind non impliquée dans le travailDeep evidential décrit la régression comme «une approche simple et élégante qui fait progresser le domaine de l’estimation de l’incertitude, ce qui est important pour la robotique et d’autres systèmes de contrôle du monde réel

Elle a ajouté: «Ceci est fait d’une manière nouvelle qui évite certains des aspects désordonnés d’autres approches – [par exemple] l’échantillonnage ou les ensembles – ce qui le rend non seulement élégant mais aussi plus efficace en termes de calcul – une combinaison gagnante”

Voir les pages recto et verso d’aujourd’hui, télécharger le journal,
commander des numéros en arrière et utiliser l’historique Daily Express
archives de journaux

Intelligence artificielle, réseau de neurones artificiels, apprentissage en profondeur, apprentissage automatique, Alexander Amini, recherche

Actualités – GB – Actualités sur l’IA: le réseau neuronal apprend quand il ne faut pas lui faire confiance – ’99 % ne le coupera pas ‘
Titre associé :
AI news: le réseau neuronal apprend quand il ne faut pas lui faire confiance – & # 39; 99% ont gagné & # 39; t le couper href = “/? s = Le réseau neuronal apprend quand il ne devrait pas être fiable”> Le réseau neuronal apprend quand il ne doit pas être fiable
Le réseau neuronal d’intelligence artificielle apprend quand il ne doit pas être fiable

Source: https://www.express.co.uk/news/science/1363148/ai-news-neural-network-deep-learning-decision-making-mit-evg

En s’appuyant sur ses expertises dans les domaines du digital, des technologies et des process , CSS Engineering vous accompagne dans vos chantiers de transformation les plus ambitieux et vous aide à faire émerger de nouvelles idées, de nouvelles offres, de nouveaux modes de collaboration, de nouvelles manières de produire et de vendre.

CSS Engineering s’implique dans les projets de chaque client comme si c’était les siens. Nous croyons qu’une société de conseil devrait être plus que d’un conseiller. Nous nous mettons à la place de nos clients, pour aligner nos incitations à leurs objectifs, et collaborer pour débloquer le plein potentiel de leur entreprise. Cela établit des relations profondes et agréables.

Nos services:

  1. Création des sites web professionnels
  2. Hébergement web haute performance et illimité
  3. Vente et installation des caméras de vidéo surveillance
  4. Vente et installation des système de sécurité et d’alarme
  5. E-Marketing

Toutes nos réalisations ici https://www.css-engineering.com/en/works/