Детектор діпфейков вперше обдурили

Програмісти показали, що детектор можна обдурити, якщо вставляти вхідні дані їх ще називають прикладами

змагальності, в кожен видеокадр.Змагальні приклади - це злегка змінені вхідні дані, які змушують системи штучного інтелекту помилятися. Крім того, команда показала, що спосіб працює навіть після стиснення відео.

Нагадаємо, що в deepfakes або діпфейках особабудь-якого суб'єкта можна змінити на чуже так, щоб це виглядало правдоподібно. Так можна створити реалістичні кадри подій, які насправді ніколи не відбувалися.

Типові детектори deepfake фокусуються на обличчяхв відео: вони спочатку відстежують їх, а потім передають окремо фрагмент особи в нейронну мережу, яка визначає, чи є відео реальним або підробленим. Наприклад, моргання очей погано відтворюється в deepfakes, тому детектори фокусуються на рухах очей. Сучасні детектори Deepfake покладаються на моделі машинного навчання для ідентифікації підроблених відео.

Автори роботи протестували свою обробку відеов двох сценаріях: перший, де зловмисники мають повний доступ до моделі детектора, спосіб вилучення особи і архітектуру і параметри моделі класифікації; і інший, де зловмисники можуть тільки запросити модель машинного навчання, щоб з'ясувати ймовірність того, що кадр буде класифікований як реальний або підроблений.

У першому випадку ймовірність обдурити детекторсклала 99% для незжатих відео, а для стислих 84,96%. У другому випадку детектор вийшло обдурити в 86,43% для нестислого і 78,33% для стисненого відео. Це перша робота, яка демонструє успішні атаки на сучасні детектори deepfake.

Програмісти з Каліфорнії відмовилися випустити свій код про відкритий доступ, щоб він не був використаний для дезінформації.

Читати далі:

Подивіться на зображення Марса з 8 трильйонів пікселів

Ядерний ракетний двигун будують для польотів на Марс. Чим він небезпечний?

Аборти і наука: що буде з дітьми, яких народять