Burton Rast ، Google - حول أخلاقيات الذكاء الاصطناعي ، والحق الإنساني في الخصوصية والمساعدين الصوتيين المحايدين جنسانيا

بيرتون راستكاتبة ومعلمة ومعلمة ومديرة فنية سابقة لوكالة تصميم IDEO ، واليوم مقدمة

مصمم UX Google.He يجلبركز على نهج يركز على الإنسان لتطوير وتصميم المنتجات المقدمة في إطار مساعد Google.يرى أن مطوري أنظمة التعلم الآلي مسؤولون عنالمسؤولية ، سواء بشكل فردي أو كصناعة ، لضمان تلبية الاحتياجات البشرية بشكل منصف ، واحترام الخصوصية كحق أساسي من حقوق الإنسان.

"في الولايات المتحدة ، لا يعلم الجميع عن إجمالي الناتج المحلي"

- هل يمكنك التحدث عن المشاريع التي تعمل عليها الآن؟

"المشاريع التي أعمل عليها الآن لن تبدأ حتى عام 2020 ، لذلك لا يمكنني التحدث عنها.لكنه انضم مؤخرا إلى فريق الخصوصية وحماية البيانات.نحن نعمل على أشياء مختلفة ، على سبيل المثال ، لجعل منتجاتنا متوافقة مع الناتج المحلي الإجمالي في أوروبا - هذه هي "اللائحة العامة"حماية البيانات".

- نعم ، أنا أعرف ما هو الناتج المحلي الإجمالي.

"حسنًا ، ليس كل شخص في الولايات يعرف عنه!" بالإضافة إلى ذلك ، هناك أشياء أعلناها في IO ، على سبيل المثال ، التعلم الآلي الموحد. هذا آمن وآمن وزع التعلم. مع ذلك ، يقومون بتحسين النماذج دون تنزيل البيانات من أجهزة المستخدم. ثم يتم تحميل النموذج المحسن في نفس الأجهزة.

الصورة: مهرجان أوف

- في الآونة الأخيرة ، تم إغلاق لجنة الأخلاقيات في منظمة العفو الدولية في Google ...

"أنا لست مرتبطا بها.

- لكن هل يمكنك التحدث بشكل عام عن الأخلاق في الذكاء الاصطناعى؟

- بنفسي ، نعم ، ولكن ليس بالنيابة عن Google.

- تم إغلاق لجنة الأخلاقيات بعد أسبوعبعد إنشائها ، كما تم انتقاد جوجل لإدراج بعض الناس في ذلك. من حيث المبدأ ، هل تعتبر أنه من الطبيعي أن تعالج مجموعة صغيرة من الناس القضايا الأخلاقية في الذكاء الاصطناعي للجميع؟

- شخصيا - لا ، لا أعتقد أن مجموعة صغيرةيمكن للناس التعبير عن هذه الأخلاق. في العام الماضي نشرنا قائمة بالمبادئ في الذكاء الاصطناعى. أنها تحدد العمل في هذا المجال. لن نعمل بعد الآن من أجل الجيش ، أو على شيء مقابل الأسلحة ، أو على شيء قد يتعارض مع قوانين حقوق الإنسان. أعتقد أن هذا يمكن وينبغي أن يلهم الشركات الأخرى. يجب أن تتطور هذه الوثيقة بمرور الوقت ، لأن منظمة العفو الدولية تتطور أيضًا. نحتاج أن نبدأ في مكان ما ، ولكن بشكل عام يجب أن يكون الأمر أكثر خطورة من تجربة شركة واحدة ، أو كما قلت ، مجموعة واحدة من الأشخاص.

"في جميع بياناتنا أشخاص متحيزون"

- هل يمكننا حتى التخلص من التحيز في الذكاء الاصطناعى؟

- هذه مشكلة متطورة ومعقدة للغاية.فكر في مدى سرعة تطور اللغة. إن تصميم أنظمة تفهم كيفية حدوث ذلك وتزيل الأنواع الجديدة من التحيز والتمييز عند ظهورها أمر صعب للغاية. يجب أن تتم إدارة هذه الأنظمة من قبل الناس، ونحن بحاجة إلى أن نبني فيها إمكانية التدخل البشري. هل يمكن لأي شخص تصميم نظام مثالي؟ واحد يزيل التحيز قبل أن يبدأ؟ على الاغلب لا. تحتوي جميع بياناتنا على تحيز بشري مدمج فيها. في الأساس، نحن بحاجة إلى إنشاء نظام أفضل من البشر.

- هل هذا ممكن؟

- يمكنك تحسين النظام في هذا الاتجاه. نرى اليوم الكثير من الأشخاص الأذكياء الذين لا يفكرون فقط في كيفية تطوير النظم بأنفسهم ، ولكن أيضًا حول القواعد العامة للتصميم والتطوير التي يمكن للآخرين استخدامها. أعتقد أن هذه بداية جيدة ، سنتمكن من التعلم من أخطاء الماضي وإنشاء أنظمة لا يوجد فيها تحيز في البيانات.

الصورة: خارج المهرجان

- نشرت اليونسكو مؤخرًا تقريرًا عن النوع الاجتماعيالتمييز في المساعدين الصوتيين - كلهم ​​لديهم أصوات نسائية. واحد من الإجراءات اللازمة ، ودعا واضعو التقرير تطوير آلة ، صوت محايد جنسانيا. كيف تشعر حيال هذا؟

- الأمر صعب للغاية: يجب أن يكون الناس قادرين على اختيار صوت مساعدهم؟ أم ينبغي اتخاذ قرار عام يؤثر على مليارات الناس؟ يمكن ثلاث شركات اتخاذ هذا القرار؟ المشكلة ليست فقط في النوع الاجتماعي - لا توجد أصوات تقريبًا تمثل أشخاصًا من ثقافات مختلفة أو جماعات عرقية. لا يزال هناك الكثير من العمل في هذا المجال ، ولست متأكدًا من وجود إجابة بسيطة.

تقرير اليونسكو بعنوان "سأحمر خجلا لو استطعت"("سأحمر خجلاً إذا استطعت" - "التقنية العالية") هو رد سيري على العديد من إهانات المستخدمين ضدها. ويرى مؤلفو التقرير أن المشكلة هي أن جميع المساعدين الصوتيين يستخدمون أصوات الشابات، وأنهم، من بين أمور أخرى، لا يردون على الإهانات القائمة على التمييز بين الجنسين. تدعو اليونسكو إلى تحقيق قدر أكبر من التوازن بين الجنسين في الفرق التي تعمل على تطوير الذكاء الاصطناعي: حالياً 12٪ فقط من الباحثين في مجال الذكاء الاصطناعي هم من النساء.

"أريد المزيد من الخصوصية"

- العودة إلى مسألة الخصوصية - ألا تعتقد أن الناس في الآونة الأخيرة كانوا يخافون أكثر من اللازم؟

- لا ، أنا منذ فترة طويلة ناشط في حماية البيانات ،هذا جزئيًا سبب انضمامك إلى الفريق. أنا لست من النوع الذي يعتقد الناس الذعر أكثر من اللازم. أنا شخص من النوع الذي تعتبره العائلة والأصدقاء مجنونين ، على مستوى "غطاء رقائق". يبدو لي أن الناس يجب أن يهتموا بالتأكيد بخصوصياتهم. إذا لم تكن مهتمًا ، فاطرح الأسئلة على الأقل. وعليهم توقع أن تخبرهم الشركة التي تستخدم بياناتهم عنها.

"الآن تحاول الشركات بالفعل أن توضح بشكل أكثر تحديداً ما يحدث بالبيانات. ما هي الخطوات التالية في هذا الاتجاه؟

- لا أعتقد أن الناس ملزمون بفهم كل شيءمدى تعقيد كيفية استخدام بياناتهم على الإنترنت. الناس لديهم فهم مشترك ، وهذا ما أكده بحثنا. على سبيل المثال ، معظم الخدمات مجانية لأن البيانات تُستخدم للإعلان. ولكن عندما يتعلق الأمر بالأشخاص والشركات المشكوك في صحتهم والذين يرغبون في الوصول إلى البيانات ، فإنهم يستخدمون مطبوعات الأجهزة الرقمية - لا أعتقد أنه ينبغي على الناس معرفة ذلك. إنها عمل الشركات لحماية المستخدمين

- لا يمكنك معرفة بالضبط عن المشاريع الجديدة؟

– أستطيع أن أقول بشكل عام:يجب أن يكون المستخدمون قادرين على قول "أريد المزيد من الخصوصية" بطريقة بسيطة جدًا. ونحن نعمل على جعل هذا حقيقة واقعة في جميع منتجاتنا الأساسية.

- كيف؟ اضغط على زر "جعل كل شيء خاصًا"؟

- بالطبع ، لن نضع عملاقالتبديل بالكلمات "الخصوصية" في بحث Google. من الصعب جدًا جعل الفرق تعمل على منتجات يبلغ عدد جمهورها أكثر من مليار مستخدم - البحث والخرائط وأندرويد ويوتيوب - لإجراء تغييرات تؤثر بشكل كبير على أفكارهم. هذا لا يحدث في يوم واحد. لكننا نعمل على ذلك.