Des chercheurs de l'Université Carnegie Mellon (CMU) ont découvert que la perception des robots peut être sensiblement améliorée en
Dans la première étude à grande échellel'interaction du son et de l'action du robot, menée à l'Institut de robotique de la CMU, les chercheurs ont découvert que les sons peuvent aider le robot à distinguer même des objets similaires comme un tournevis en métal et une clé en métal. L'audition peut également aider les robots à déterminer les actions que le son doit déclencher et à les utiliser pour prédire les propriétés physiques de nouveaux objets. Les chercheurs ont noté que la vitesse de fonctionnement a doublé et que les appareils n'ont commencé à classer les objets à l'oreille que 76% du temps.
L'IA peut détecter les gestes à l'aide de capteurs de vision et de mains
Pour mener leurs recherches, les scientifiques ont créégrand ensemble de données, enregistrement vidéo et audio 60 éléments communs - jouets, outils à main, chaussures, pommes, balles de tennis. Pour chacun de ces objets, tout un ensemble de sons a été enregistré - comment ils ont glissé, roulé ou percuté l'un contre l'autre. Le robot a ensuite analysé cet ensemble de données et a appris à le gérer.
Il s'agit du plus grand ensemble de données audio surque les robots ont entraîné. Les chercheurs ont été surpris de voir à quel point les appareils étaient plus efficaces. Ils ont découvert, par exemple, qu'un robot peut utiliser ce qu'il a appris sur le son d'un ensemble d'objets pour faire des prédictions sur les propriétés physiques d'autres objets qu'il n'a jamais vus ou touchés.
Lisez aussi
— Un moyen a été créé pour éradiquer les parasites en bloquant toutes les voies de leur métabolisme
— Après l'introduction du vaccin russe, 144 effets secondaires ont été constatés chez des volontaires
— Les premiers tests de vitesse Internet Starlink ont été publiés