Минулого року газета New York Times повідомляла про м'яку політику Pornhub, яка дозволяла своїм користувачам
У звіті також пояснюється, як Pornhub обробляє матеріали про сексуальне насильство над дітьми (CSAM).Pornhub виявляє CSAM на своєму веб-сайті за допомогою модерації та звітів, поданих Національним центром зниклих та експлуатованих дітей.Минулого року центр подав загалом понад 13 000 потенційних CSAMs, з яких 4 171 представляєунікальні звіти, а решта – дублікати.
Для модерації Pornhub використовує кількатехнологій виявлення. У 2020 році він просканував все раніше завантажені відео за допомогою YouTube CSAI Match, запатентованої технології Тб для виявлення зображень сексуального насильства над дітьми. Він також відсканував все раніше представлені фотографії за допомогою Microsoft PhotoDNA, який був розроблений для тієї ж мети. Pornhub продовжить використовувати обидві технології для сканування всіх відео, відправлених на його платформу. Крім того, веб-сайт використовує API безпеки контенту від Google, програмне забезпечення для кіберотпечатков пальців MediaWise (для сканування всіх нових завантажень користувачів на предмет раніше виявленого образливого контенту) і Safeguard, власну технологію розпізнавання зображень, призначену для боротьби як з CSAM, так і з відео, знятими без згоди.
Читайте також:
- Створено першу точна карта світу. Що не так з усіма іншими?
- Алгоритм виявив новий таємничий шар всередині Землі
- Уран отримав статус самої дивної планети в Сонячній системі. Чому?