L’intelligence artificielle est de plus en plus centrale dans notre vie quotidienne, des voitures sans conducteur au diagnostic médical Mais bien que ces réseaux de nouvelle génération excellent dans la reconnaissance de modèles dans des ensembles de données complexes, les ingénieurs ne comprennent que maintenant comment nous savons quand ils sont corrects.

Des experts en IA ont développé une méthode pour modéliser le niveau de confiance de la machine en fonction de la qualité des données disponibles

Cette idée est importante et largement applicable Il peut être utilisé pour évaluer les produits qui s’appuient sur des modèles appris

Les ingénieurs du MIT s’attendent à ce que cette avancée puisse éventuellement sauver des vies, car l’apprentissage en profondeur est désormais largement déployé au quotidien

for example, le niveau de certitude d’un réseau peut être la différence entre un véhicule autonome déterminant entre un carrefour clair etc’est probablement clair, alors arrêtez-vous juste au cas où

Cette approche, dirigée par Alexander Amini, doctorant au MIT, surnommée «régression probante profonde», accélère le processus et pourrait conduire à une technologie d’IA encore plus sûre.

He stated: «Nous devons non seulement avoir des modèles performants, mais aussi comprendre quand nous ne pouvons pas faire confiance à ces modèles

Cette idée est importante et largement applicable Il peut être utilisé pour évaluer des produits qui reposent sur des modèles appris

En estimant l’incertitude d’un modèle appris, nous apprenons également le taux d’erreur à attendre du modèle et les données manquantes qui pourraient améliorer le modèle

L’analyste IA ajoute comment les approches précédentes de l’analyse d’incertitude sont basées sur l’apprentissage profond bayésien

Il s’agit d’un processus nettement plus lent, un luxe inexistant dans le monde réel où les décisions peuvent faire la différence entre la vie et la mort

Une chose qui a échappé aux chercheurs est la capacité de ces modèles à savoir et à nous dire quand ils pourraient se tromper

À NE PAS MANQUER Danger d’astéroïdes: une certitude d’impact à 100% avertit l’expert spatial [INTERVIEW] Hubble capture la galaxie «comme un portail vers une autre dimension» [PHOTOS] Les scientifiques construisent un robot «conscient de lui-même» capable de se RÉPARER LUI-MÊME [ANALYSIS]

Nous nous soucions vraiment de ce pourcentage du temps et de la manière dont nous pouvons détecter ces situations de manière fiable et efficace

Les chercheurs ont commencé par une tâche difficile de vision par ordinateur pour mettre leur approche à l’épreuve

Ils ont formé leur réseau neuronal pour analyser une image et estimer la profondeur focale de chaque pixel

Les voitures autonomes utilisent des calculs similaires pour estimer la proximité d’un piéton ou d’un autre véhiculepas de tâche simple

Comme les chercheurs l’avaient espéré, le réseau projetait une incertitude élevée pour les pixels là où il prédisait la mauvaise profondeur

Amini a déclaré: «Il était très calibré en fonction des erreurs commises par le réseau, what, in our opinion, était l’une des choses les plus importantes pour juger de la qualité d’un nouvel estimateur d’incertitude.

Le test a révélé la capacité du réseau à signaler les cas où les utilisateurs ne devraient pas faire entièrement confiance à ses décisions

Dans de tels exemples, “s’il s’agit d’une application de soins de santé, peut-être que nous ne faisons pas confiance au diagnostic que le modèle donne et cherchons plutôt un deuxième avis”, a ajouté Amini

Dr Raia Hadsell, chercheuse en intelligence artificielle DeepMind non impliquée dans le travailDeep evidential décrit la régression comme «une approche simple et élégante qui fait progresser le domaine de l’estimation de l’incertitude, ce qui est important pour la robotique et d’autres systèmes de contrôle du monde réel

Elle a ajouté: «Ceci est fait d’une manière nouvelle qui évite certains des aspects désordonnés d’autres approches – [for example] l’échantillonnage ou les ensemblesce qui le rend non seulement élégant mais aussi plus efficace en termes de calculune combinaison gagnante

See the front and back pages of today, download the journal,
order back numbers and use the Daily Express history
newspaper archives

Artificial intelligence, réseau de neurones artificiels, apprentissage en profondeur, apprentissage automatique, Alexander Amini, research

News – GB – Actualités sur l’IA: the neural network learns when not to trust it – ’99 % ne le coupera pas
Associated title :
AI news: the neural network learns when not to trust it – & # 39; 99% ont gagné & # 39; t le couper href = “/? s = Le réseau neuronal apprend quand il ne devrait pas être fiable”> Le réseau neuronal apprend quand il ne doit pas être fiable
Le réseau neuronal d’intelligence artificielle apprend quand il ne doit pas être fiable

Source: https://www.express.co.uk/news/science/1363148/ai-news-neural-network-deep-learning-decision-making-mit-evg

Building on its expertise in the areas of digital, technologies and processes , CSS Engineering you in your most ambitious transformation projects and helps you bring out new ideas, new offers, new modes of collaboration, new ways of producing and selling.

CSS Engineering is involved in projects each customer as if it were his own. We believe a consulting company should be more than an advisor. We put ourselves in the place of our customers, to align we incentives to their goals, and collaborate to unlock the full potential their business. This establishes deep relationships and enjoyable.

Our services:

  1. Create professional websites
  2. Hosting high performance and unlimited
  3. Sale and video surveillance cameras installation
  4. Sale and Installation of security system and alarm
  5. E-Marketing

All our achievements here https://www.css-engineering.com/en/works/