Un pull invisible a été créé. Cela vous aidera à « échapper » à l’intelligence artificielle

Les employés de l’Université du Maryland ont créé une « cape d’invisibilité » pratique. Il a été utilisé pour tester

systèmes d’apprentissage automatique pour la présence de vulnérabilités. Une impression avec une image floue trompe les modèles. Ainsi, le propriétaire du pull peut se cacher de l’intelligence artificielle.

Un modèle spécial pour le concours a été généré,en utilisant un large ensemble d’images de formation. Chaque fois que le système détectait une personne, les données étaient examinées pour voir dans quelle mesure le modèle réduisait le score du sujet. En fin de compte, le modèle « contradictoire » a été amélioré au point qu’il interfère fondamentalement avec la reconnaissance des personnes.

Une attaque contradictoire est un moyen de tromper un réseau de neurones et d'en tirer un résultat incorrect.

Le motif sur le pull ressemble un peu à une mauvaise peinture impressionniste représentant des gens achetant des citrouilles sur un marché.

Au cours des expériences, les scientifiques ont facilement trompé le détecteur YOLOv2 en utilisant un modèle formé sur l'ensemble de données COCO avec une cible soigneusement formulée.

COCO (Common Objects in Context) est un grand ensemble d'images. Se compose de 330 000 photographies et illustrations, qui représentent plus de 1,5 million d'objets.

Lire la suite:

Les archéologues ont officiellement confirmé les légendes de la Bible

Il s'est avéré ce qui arrive aux cellules du corps lorsque le cœur meurt

Le signal Starlink piraté pour être utilisé comme alternative au GPS