Burton Rast, Google - o etice AI, lidském právu na soukromí a rodově neutrálních hlasových asistentech

Burton Rast - spisovatel, učitel, mentor a bývalý umělecký ředitel agentury IDEO design a dnes je vedoucí

Ux designer ve společnosti google. Zaměřuje se na přístup zaměřený na osoby, který se zaměřuje na návrh a vývoj produktů poskytovaných prostřednictvím služby Google Assistant. Dodržuje názor, že vývojáři systémů strojového učení jsou odpovědní - jak jednotlivě, tak v rámci celého odvětví - za spravedlivé uspokojování lidských potřeb, respektování soukromého života jako základního lidského práva.

„V USA ne každý ví o HDP“

- Můžete mluvit o projektech, na kterých teď pracujete?

- Projekty, na kterých teď pracuji, nejsoudo roku 2020, takže o nich nemůžu mluvit. Nedávno však vstoupil do týmu na ochranu soukromí a údajů. Pracujeme na různých věcech, například na tom, aby naše výrobky vyhovovaly GDPR v Evropě - to je „Obecné nařízení o ochraně údajů“.

- Ano, vím, co je GDPR.

"No, ne všichni ve Státech o něm vědí!" Kromě toho existují věci, které jsme oznámili v IO, například federální strojové učení. To je bezpečné a distribuované strojové učení. Díky tomu vylepšují modely bez stahování dat z uživatelských zařízení. A pak je vylepšený model načten do stejných zařízení.

Foto: Off Festival

- Nedávno byla v Googlu uzavřena komise pro etiku v AI ...

- Nejsem s ní spojen.

- Můžete ale mluvit obecně o etice v AI?

- Já sám, ano, ale ne jménem společnosti Google.

- Etická komise byla po týdnu uzavřenapo jeho vytvoření, jak Google byl kritizován za zahrnutí jistých lidí v tom. Považujete za normální, že malá skupina lidí by se měla zabývat etickými otázkami v AI pro všechny?

- Osobně - ne, nemyslím si, že malá skupinalidé mohou tuto etiku formulovat. V loňském roce jsme zveřejnili seznam principů v AI. Definují práci v této oblasti. Už nebudeme pracovat pro armádu, pro něco pro zbraně, pro něco, co by mohlo být v rozporu se zákony o lidských právech. Myslím, že to může a mělo by inspirovat další společnosti. Tento dokument by se měl časem vyvíjet, protože se také vyvíjí AI. Musíme někde začít, ale obecně by to mělo být mnohem vážnější než zkoušení jedné společnosti, nebo, jak jste řekl, jedné skupiny lidí.

"Ve všech našich údajích jsou lidé neobjektivní"

- Můžeme se zbavit zkreslení v AI?

- Jedná se o rozvíjející se a poměrně komplikovaný problém. Přemýšlejte, jak rychle se jazyk vyvíjí. Je velmi obtížné navrhovat systémy, které chápou, jak se to děje, a odstranit nové typy zkreslení a diskriminace, když se objeví. Tyto systémy by měly být kontrolovány lidmi, musíme do nich položit možnost lidského zásahu. Může někdo navrhnout dokonalý systém? Což odstraňuje zkreslení před tím, než vznikne? Pravděpodobně ne. Ve všech našich údajích je zaujatost lidí. Ve skutečnosti musíme vytvořit systém, který je lepší než lidé.

- Je to možné?

- Systém můžete vylepšit tímto směrem. Dnes vidíme spoustu chytrých lidí, kteří si myslí nejen o tom, jak rozvíjet systémy samotné, ale také o obecných pravidlech designu a vývoje, které mohou ostatní používat. Myslím, že je to dobrý začátek, budeme se moci poučit z chyb z minulosti a postupně vytvářet systémy, v nichž není místo pro předsudky v datech.

Foto: Off Festival

- UNESCO nedávno zveřejnilo zprávu o rovnosti pohlavídiskriminace v hlasových asistentech - všichni mají ženské hlasy. Jedna z nezbytných akcí, autoři zprávy, nazvali vývoj stroje, genderově neutrální hlas. Jak se k tomu cítíte?

- Je to docela těžké: Měli by být lidé schopni zvolit hlas svého asistenta? Nebo by mělo být učiněno obecné rozhodnutí, které ovlivní miliardy lidí? Mohou toto rozhodnutí učinit tři společnosti? Problémem není jen gender - téměř žádné hlasy reprezentují lidi různých kultur, etnických skupin. V této oblasti je ještě spousta práce a nejsem si jist, zda existuje jednoduchá odpověď.

Zpráva UNESCO se nazývá „Já bych se červenal, kdybych mohl“(„Kdybych mohl, změnil bych se na červenou“ - „Hi-Tech“) - to je Siriho odpověď na četné urážky uživatelů na její adrese. Autoři zprávy vidí problém v tom, že všichni hlasoví asistenti používají hlasy mladých žen a mimo jiné nereagují na urážky založené na genderové diskriminaci. UNESCO vyzývá k větší rovnováze mezi ženami a muži v týmech, které rozvíjejí AI: nyní jsou pouze 12% výzkumných pracovníků v AI ženy.

„Chci více soukromí“

- Vraťme se k otázce soukromí - nemyslíte si, že v poslední době lidé příliš panikařili?

- Ne, dlouho jsem aktivistou v oblasti ochrany údajů,To je částečně důvod, proč jste se připojili k týmu. Nejsem ten typ člověka, který si myslí, že lidé příliš panikují. Jsem ten typ člověka, který rodina a přátelé považují za šílené, na úrovni „fóliového uzávěru“. Zdá se mi, že by se lidé měli rozhodně zajímat o své soukromí. Nejste-li znepokojeni, pak se alespoň zeptejte. A měli by očekávat, že o tom bude informovat společnost, která používá jejich data.

„Nyní se společnosti již snaží podrobněji vysvětlit, co se s údaji děje. Jaké jsou další kroky v tomto směru?

- Nemyslím si, že lidé jsou povinni porozumět všemsložitost způsobu, jakým jsou jejich data využívána na internetu. Lidé mají společné porozumění, což potvrzuje i náš výzkum. Většina služeb je například bezplatná, protože data se používají pro reklamu. Ale pokud jde o sporné lidi a společnosti, které chtějí mít přístup k datům, používají digitální otisky zařízení - nemyslím si, že by to lidé měli vysledovat. Chránit uživatele je úkolem podniků.

- Nemůžete přesně říct o nových projektech?

- Obecně mohu říci: Uživatelé by měli být schopni říci velmi jednoduchým způsobem: „Chci více soukromí.“ Pracujeme na tom, aby to bylo realitou ve všech našich hlavních produktech.

- Jak? Stiskněte tlačítko "make everything private"?

- Samozřejmě, nebudeme klást obrave vyhledávání Google přepněte pomocí slov „Soukromí“. Je těžké získat týmy, které pracují na produktech s více než miliardou uživatelů - vyhledávání, mapy, Android, YouTube - aby provedly změny, které výrazně ovlivní jejich nápady. To se nestane za jeden den. Ale my na tom pracujeme.