Burton Rast, Google - über die Ethik der KI, das Menschenrecht auf Privatsphäre und geschlechtsneutrale Sprachassistenten

Burton Rast - Schriftsteller, Lehrer, Mentor und ehemaliger Art Director der IDEO-Designagentur. Heute ist er führend

Ux Designer bei google. Er konzentriert sich auf einen personenzentrierten Ansatz für das Design und die Entwicklung von Produkten, die über den Google-Assistenten bereitgestellt werden. Vertritt die Auffassung, dass Entwickler von maschinellen Lernsystemen sowohl individuell als auch branchenweit für die gerechte Befriedigung menschlicher Bedürfnisse und die Achtung des Privatlebens als Grundrecht des Menschen verantwortlich sind.

"In den USA kennt nicht jeder die DSGVO"

- Können Sie über die Projekte sprechen, an denen Sie gerade arbeiten?

- Die Projekte, an denen ich gerade arbeite, sind nichtlaufen bis 2020, damit ich nicht darüber reden kann. Aber vor kurzem ist er Mitglied des Datenschutzteams. Wir arbeiten an verschiedenen Dingen, zum Beispiel daran, dass unsere Produkte zur DSGVO in Europa passen - das ist die „Allgemeine Datenschutzverordnung“.

- Ja, ich weiß, was die DSGVO ist.

"Nun, nicht jeder in den Staaten weiß von ihm!" Darüber hinaus haben wir auf der IO Dinge angekündigt, zum Beispiel föderiertes maschinelles Lernen. Dies ist sicheres und verteiltes maschinelles Lernen. Damit verbessern sie Modelle, ohne Daten von Benutzergeräten herunterzuladen. Und dann wird das verbesserte Modell in dieselben Geräte geladen.

Foto: Weg vom Festival

- Vor kurzem wurde die Ethikkommission für KI bei Google geschlossen ...

- Ich bin nicht mit ihr verbunden.

- Aber können Sie allgemein über Ethik in der KI sprechen?

- Auf eigene Faust, aber nicht im Auftrag von Google.

- Die Ethikkommission wurde nach einer Woche geschlossenNach seiner Gründung wurde Google dafür kritisiert, dass es bestimmte Personen mit einbezog. Halten Sie es im Prinzip für normal, dass sich eine kleine Gruppe von Menschen mit ethischen Fragen der KI für alle auseinandersetzt?

- Persönlich - nein, ich glaube nicht, dass eine kleine GruppeMenschen können diese Ethik artikulieren. Letztes Jahr haben wir eine Liste von Prinzipien in AI veröffentlicht. Sie definieren die Arbeit in diesem Bereich. Wir werden nicht länger für die Armee arbeiten, an etwas für Waffen, an etwas, das möglicherweise den Menschenrechtsgesetzen widerspricht. Ich denke, das kann und sollte andere Unternehmen inspirieren. Dieses Dokument sollte sich im Laufe der Zeit weiterentwickeln, da sich auch die KI weiterentwickelt. Wir müssen irgendwo anfangen, aber im Allgemeinen sollte es viel ernster sein, als eine Firma oder, wie Sie sagten, eine Gruppe von Menschen zu testen.

"In all unseren Daten sind Menschen voreingenommen"

- Können wir die Voreingenommenheit in der KI beseitigen?

- Dies ist ein sich entwickelndes und ziemlich kompliziertes Problem. Überlegen Sie, wie schnell sich die Sprache entwickelt. Es ist sehr schwierig, Systeme zu entwerfen, die verstehen, wie dies geschieht, und neue Arten von Voreingenommenheit und Diskriminierung zu beseitigen, wenn sie auftreten. Diese Systeme sollten von Menschen kontrolliert werden, wir müssen die Möglichkeit menschlicher Eingriffe in sie schaffen. Kann jemand das perfekte System entwerfen? Was beseitigt Vorurteile, bevor sie entstehen? Wahrscheinlich nicht. In all unseren Daten gibt es eine Tendenz von Menschen. Tatsächlich müssen wir ein System schaffen, das besser ist als Menschen.

- Das ist möglich?

- Sie können das System in diese Richtung verbessern. Heute sehen wir viele clevere Leute, die nicht nur darüber nachdenken, wie die Systeme selbst entwickelt werden sollen, sondern auch über die allgemeinen Regeln für Design und Entwicklung, die andere verwenden können. Ich denke, dies ist ein guter Anfang. Wir werden aus den Fehlern der Vergangenheit lernen und nach und nach Systeme entwickeln, in denen es keinen Platz für Verzerrungen in den Daten gibt.

Foto: Weg vom Festival

- Die UNESCO hat kürzlich einen Bericht über das Geschlecht veröffentlichtDiskriminierung bei Sprachassistenten - alle haben weibliche Stimmen. Eine der notwendigen Maßnahmen nannten die Autoren des Berichts die Entwicklung einer maschinellen, geschlechtsneutralen Stimme. Wie fühlst du dich dabei?

- Es ist ziemlich schwierig: Sollten die Leute die Stimme ihres Assistenten wählen können? Oder sollte eine allgemeine Entscheidung getroffen werden, die Milliarden von Menschen betrifft? Können drei Unternehmen diese Entscheidung treffen? Das Problem ist nicht nur das Geschlecht - es gibt fast keine Stimmen, die Menschen verschiedener Kulturen oder ethnischer Gruppen repräsentieren. In diesem Bereich wird noch viel gearbeitet, und ich bin mir nicht sicher, ob es eine einfache Antwort gibt.

Der UNESCO-Bericht heißt "Ich würde rot werden, wenn ich könnte".("Ich würde rot werden, wenn ich könnte" - "Hi-Tech") - das ist Siris Antwort auf die zahlreichen Beleidigungen von Benutzern in ihrer Adresse. Die Autoren des Berichts sehen das Problem darin, dass alle Sprachassistenten die Stimmen junger Frauen verwenden und unter anderem nicht auf Beleidigungen aufgrund von Diskriminierung aufgrund des Geschlechts reagieren. Die UNESCO fordert ein ausgewogeneres Verhältnis der Geschlechter in Teams, die KI entwickeln: Derzeit sind nur 12% der KI-Forscher Frauen.

"Ich möchte mehr Privatsphäre"

- Zurück zum Thema Datenschutz - Glauben Sie nicht, dass die Menschen in letzter Zeit zu sehr in Panik geraten sind?

- Nein, ich bin seit langem ein Aktivist im Bereich Datenschutz.Dies ist zum Teil der Grund, warum Sie dem Team beigetreten sind. Ich bin nicht die Art von Person, die denkt, die Menschen geraten zu sehr in Panik. Ich bin die Art von Person, die Familie und Freunde für verrückt halten, auf der Ebene einer „Folienkappe“. Es scheint mir, dass die Menschen auf jeden Fall um ihre Privatsphäre besorgt sein sollten. Wenn Sie nicht betroffen sind, stellen Sie zumindest Fragen. Und sie sollten damit rechnen, dass das Unternehmen, das ihre Daten verwendet, sie darüber informiert.

„Jetzt versuchen Unternehmen bereits, genauer zu erklären, was mit den Daten passiert. Was sind die nächsten Schritte in diese Richtung?

- Ich glaube nicht, dass die Menschen verpflichtet sind, alles zu verstehendie Komplexität, wie ihre Daten im Internet verwendet werden. Die Menschen haben ein gemeinsames Verständnis, dies wird durch unsere Forschung bestätigt. Beispielsweise sind die meisten Dienste kostenlos, da Daten für Werbezwecke verwendet werden. Aber wenn es um fragwürdige Personen und Unternehmen geht, die auf Daten zugreifen möchten, verwenden sie digitale Fingerabdrücke des Geräts - ich denke nicht, dass die Leute dies herausfinden sollten. Es ist die Aufgabe von Unternehmen, Benutzer zu schützen.

- Sie können nicht genau über neue Projekte erzählen?

- Ich kann allgemein sagen: Benutzer sollten auf sehr einfache Weise sagen können: „Ich möchte mehr Privatsphäre.“ Wir arbeiten daran, dass dies in allen unseren Hauptprodukten Realität wird.

- wie? Klicken Sie auf die Schaltfläche "Alles privat machen"?

- Natürlich werden wir keinen Riesen stellenWechseln Sie mit den Worten "Datenschutz" in der Google-Suche. Es ist ziemlich schwierig, Teams dazu zu bringen, mit einem Publikum von über einer Milliarde Benutzern an Produkten zu arbeiten - Suche, Karten, Android, YouTube -, um Änderungen vorzunehmen, die ihre Ideen stark beeinflussen. Es passiert nicht an einem Tag. Aber wir arbeiten daran.