Бертон Раст— письменник, вчитель, ментор та колишній арт-директор дизайн-агентства IDEO, а сьогодні — ведучий
«У США не всі знають про GDPR»
- Ви можете говорити про проекти, над якими працюєте зараз?
— Проекти, над якими я працюю зараз, незапустяться до 2020 року, тож не можу розповідати про них. Але нещодавно приєднався до команди із забезпечення приватності та захисту даних. Ми працюємо над різними речами, наприклад, щоб наші продукти підходили під GDPR у Європі — це «Загальний регламент захисту даних».
- Так, я знаю що таке GDPR.
- Добре, не всі в Штатах про нього знають! Крім цього, є речі, які ми анонсували на IO, наприклад, федеративний машинне навчання. Це захищене і розподілене машинне навчання. З його допомогою поліпшують моделі без скачування даних з девайсів користувачів. І потім поліпшена модель завантажується в ці ж девайси.
Фото: фестиваль Офф
- Нещодавно в Google була закрита комісія з етики в ІІ ...
- Я з нею не пов'язаний.
- Але ви можете говорити в цілому про етику в ІІ?
- Від себе так, але не від імені Google.
- Комісія з етики була закрита через тижденьпісля її створення, так як Google критикували за включення в неї певних людей. В принципі ви вважаєте нормальним, що невелика група людей повинна вирішувати питання етики в ІІ для всіх?
- Особисто - ні, я не думаю, що маленька групалюдей може формулювати цю етику. У минулому році ми опублікували список принципів в ІІ. Вони визначають роботу в цій сфері. Ми більше не будемо працювати на армію, над чимось для зброї, над чимось, що можемо суперечити законам про права людини. Мені здається, це може і повинно надихнути інші компанії. Цей документ повинен розвиватися з часом, тому що ІІ теж розвивається. Потрібно з чогось починати, але взагалі це повинно бути набагато серйозніше, ніж спроби однієї компанії, або, як ви сказали, однієї групи людей.
«У всіх наших даних закладена упередженість людей»
- Чи можемо ми взагалі позбутися упередженості в ІІ?
— Це досить складна проблема, що розвивається.Подумайте, як швидко розвивається мова. Спроектувати системи, які розуміють, як це відбувається, та прибирають нові види упередженості та дискримінації, коли вони з'являються, дуже складно. Цими системами повинні керувати люди, нам потрібно закласти у них можливість втручання людини. Чи може хтось спроектувати бездоганну систему? Яка усуває упередженість до того, як вона виникає? Мабуть, ні. У всіх наших даних закладено упередженість людей. По суті, нам потрібно створити систему, яка буде кращою, ніж люди.
- Це можливо?
- Можна покращувати системи в цьому напрямку. Сьогодні ми бачимо безліч розумних людей, які думають не тільки над тим, як розробляти системи самим, але також над загальними правилами дизайну і розробки, які можуть використовувати інші. Мені здається, це хороший початок, ми зможемо вчитися на помилках минулого і поступово створювати системи, в яких не буде місця упередженості даних.
Фото: фестиваль Офф
- ЮНЕСКО нещодавно опублікувала доповідь про гендернудискримінації в голосових помічників - у всіх з них жіночі голоси. Одним з необхідних дій автори доповіді назвали розробку машинного, гендерно-нейтрального голосу. Як ви до цього ставитеся?
- Це досить складно: чи повинні люди мати можливість вибирати голос свого помічника? Або має бути прийнято спільне рішення, яке вплине на мільярди людей? Чи можуть три компанії прийняти це рішення? Проблема ж полягає не тільки в гендер - майже немає голосів, які репрезентують людей різних культур, етносів. У цій області ще багато роботи, і я не впевнений, що є проста відповідь.
Доповідь ЮНЕСКО називається "I'd blush if I could"("Я б почервоніла, якби могла" - "Хайтек") - це відповідь Siri на численні образи користувачів на її адресу. Автори доповіді вбачають проблему в тому, що всі голосові помічники використовують голоси молодих жінок, і вони не відповідають на образи, засновані на гендерній дискримінації. ЮНЕСКО закликає до більшої гендерної збалансованості у командах, які розробляють ІІ: зараз лише 12% дослідників ІІ — жінки.
«Я хочу більше приватності»
- Повертаючись до питання приватності - вам не здається, що останнім часом люди надто панікують?
- Ні, я давно був активістом в захисті даних,це частково причина, чому приєднався до команди. Я не та людина, яка вважає, що люди занадто панікують. Я та людина, яку сім'я і друзі вважають божевільним, на рівні «шапочки з фольги». Мені здається, люди точно повинні бути стурбовані своєю приватних даних. Якщо не стурбовані, то, по крайней мере, задавати питання. І вони повинні очікувати, що компанія, яка використовує їх дані, буде розповідати їм про це.
- Зараз компанії вже намагаються конкретніше пояснювати, що відбувається з даними. Якими будуть наступні кроки в цьому напрямку?
- Я не думаю, що люди зобов'язані розуміти у всійскладності, як їх дані використовують в інтернеті. У людей є загальне розуміння, це підтверджують наші дослідження. Наприклад, більшість сервісів безкоштовні, тому що дані використовують для реклами. Але коли справа доходить до сумнівних людей і компаній, які хочуть отримати доступ до даних, використовують цифрові відбитки пристрої, - я не думаю, що люди повинні в цьому розбиратися. Це завдання компаній - захистити користувачів.
- Точно не можете розповісти про нові проекти?
— Можу сказати загалом:Користувачі повинні мати можливість дуже простим способом сказати: «Я хочу більше приватності». Ми працюємо над тим, щоб це стало реальністю у всіх наших основних продуктах.
- Як? Натиснути кнопку «зробити все приватним»?
- Звичайно, ми не будемо ставити гігантськийрубильник з написом "Налаштування" в пошук Google. Досить важко змусити команди, що працюють над продуктами з аудиторією більше мільярда користувачів - пошук, карти, Android, YouTube, - робити зміни, які сильно вплинуть на їх ідеї. Це не відбувається за один день. Але ми працюємо над цим.