L'IA affichera des colonnes intelligentes là où se trouve l'utilisateur

Des chercheurs de l’Université Carnegie Mellon ont mis au point un modèle d’apprentissage automatique qui évalue

la direction d’où vient la voix de l’utilisateur.Les appareils n’ont pas besoin de s’appuyer sur des phrases et des gestes spéciaux qui doivent maintenant être prononcés pour les appareils.La méthode est basée sur les propriétés intrinsèques du son lorsqu’il se déplace dans la pièce.

L'IA sait que le son le plus fort et le plus clair est toujoursvisant un sujet donné. Toutes les autres commandes vocales auront un son plus silencieux, retardé ou coupé. Le modèle comprend également que les fréquences vocales varient en fonction de la direction dans laquelle vous vous trouvez. Les basses fréquences ont tendance à être plus omnidirectionnelles.

Cette méthode ne nécessite pas beaucoup de mémoire et l'envoi de données sonores dans le cloud, ont noté les chercheurs.

Ils ont ajouté que pour mettre en œuvre le systèmecela prendra encore quelques années. L'équipe a déjà publié le code dans le domaine public - tous les chercheurs peuvent l'utiliser. Avec ce système, un haut-parleur intelligent peut être invité à lire de la musique sans utiliser de mots-clés. L'appareil pourra également répondre aux commandes même si l'utilisateur se trouve dans une autre pièce.

Lisez aussi

La mission annuelle dans l'Arctique est terminée et les données sont décevantes. Qu'est-ce qui attend l'humanité?

Les scientifiques essaient de comprendre combien de temps un neutron vit. Pourquoi est-ce si difficile et si important?

Les astronomes ont découvert un quasar avec les vents les plus forts