Anul trecut, New York Times a publicat o poveste despre politicile laxe ale Pornhub care le-au permis utilizatorilor săi
Raportul explică și modul în care Pornhubse ocupă de materiale de abuz sexual asupra copiilor (CSAM). Pornhub detectează CSAM pe site-ul său web prin moderare și raportare oferite de Centrul Național pentru Copii Dispăruți și Exploatați. Anul trecut, centrul a depus un total de peste 13.000 de CSAM potențiale, dintre care 4.171 erau rapoarte unice, iar restul erau duplicate.
Pentru moderare, Pornhub folosește mai multetehnologii de detectare. În 2020, a scanat toate videoclipurile încărcate anterior cu YouTube CSAI Match, o tehnologie de platformă video proprie pentru detectarea imaginilor de abuz sexual asupra copiilor. De asemenea, a scanat toate fotografiile trimise anterior folosind Microsoft PhotoDNA, care a fost dezvoltat în același scop. Pornhub va continua să utilizeze ambele tehnologii pentru a scana toate videoclipurile încărcate pe platforma sa. În plus, site-ul web folosește API-ul de securitate a conținutului Google, software-ul de amprentă cibernetică MediaWise (pentru a scana toate descărcările utilizatorilor noi pentru conținutul ofensator identificat anterior) și Safeguard, o tehnologie proprietară de recunoaștere a imaginilor concepută atât pentru a combate CSAM, cât și pentru videoclipurile realizate fără consimțământ.
Vezi și:
- A creat prima hartă exactă a lumii. Ce este în neregulă cu toți ceilalți?
- Algoritmul a descoperit un nou strat misterios în interiorul Pământului
- Uranus a primit statutul de cea mai ciudată planetă din sistemul solar. De ce?