Burton Rast ، Google - حول أخلاقيات الذكاء الاصطناعي ، والحق الإنساني في الخصوصية والمساعدين الصوتيين المحايدين جنسانيا

بيرتون راست - كاتب ومدرس ومعلم ومدير فني سابق لوكالة تصميم IDEO ، وهو اليوم رائد

مصمم UX في جوجل. إنه يركز على نهج يركز على الشخص لتصميم وتطوير المنتجات المقدمة من خلال مساعد Google. تتمسك بوجهة النظر القائلة بأن مطوري أنظمة التعليم الآلي مسؤولون - سواء على المستوى الفردي أو في جميع أنحاء الصناعة - عن الإرضاء التام لاحتياجات الإنسان واحترام الحياة الخاصة كحق أساسي من حقوق الإنسان.

"في الولايات المتحدة ، لا يعلم الجميع عن إجمالي الناتج المحلي"

- هل يمكنك التحدث عن المشاريع التي تعمل عليها الآن؟

- المشاريع التي أعمل عليها الآن ليست كذلكتشغيل حتى عام 2020 ، لذلك لا أستطيع التحدث عنها. لكن في الآونة الأخيرة انضم إلى فريق حماية البيانات والخصوصية. نحن نعمل على أشياء مختلفة ، على سبيل المثال ، أن منتجاتنا تناسب الناتج المحلي الإجمالي في أوروبا - وهذا هو "اللائحة العامة لحماية البيانات".

- نعم ، أنا أعرف ما هو الناتج المحلي الإجمالي.

"حسنًا ، ليس كل شخص في الولايات يعرف عنه!" بالإضافة إلى ذلك ، هناك أشياء أعلناها في IO ، على سبيل المثال ، التعلم الآلي الموحد. هذا آمن وآمن وزع التعلم. مع ذلك ، يقومون بتحسين النماذج دون تنزيل البيانات من أجهزة المستخدم. ثم يتم تحميل النموذج المحسن في نفس الأجهزة.

الصورة: خارج المهرجان

- في الآونة الأخيرة ، تم إغلاق لجنة الأخلاقيات في منظمة العفو الدولية في Google ...

- أنا غير متصل بها.

- لكن هل يمكنك التحدث بشكل عام عن الأخلاق في الذكاء الاصطناعى؟

- بنفسي ، نعم ، ولكن ليس بالنيابة عن Google.

- تم إغلاق لجنة الأخلاقيات بعد أسبوعبعد إنشائها ، كما تم انتقاد جوجل لإدراج بعض الناس في ذلك. من حيث المبدأ ، هل تعتبر أنه من الطبيعي أن تعالج مجموعة صغيرة من الناس القضايا الأخلاقية في الذكاء الاصطناعي للجميع؟

- شخصيا - لا ، لا أعتقد أن مجموعة صغيرةيمكن للناس التعبير عن هذه الأخلاق. في العام الماضي نشرنا قائمة بالمبادئ في الذكاء الاصطناعى. أنها تحدد العمل في هذا المجال. لن نعمل بعد الآن من أجل الجيش ، أو على شيء مقابل الأسلحة ، أو على شيء قد يتعارض مع قوانين حقوق الإنسان. أعتقد أن هذا يمكن وينبغي أن يلهم الشركات الأخرى. يجب أن تتطور هذه الوثيقة بمرور الوقت ، لأن منظمة العفو الدولية تتطور أيضًا. نحتاج أن نبدأ في مكان ما ، ولكن بشكل عام يجب أن يكون الأمر أكثر خطورة من تجربة شركة واحدة ، أو كما قلت ، مجموعة واحدة من الأشخاص.

"في جميع بياناتنا أشخاص متحيزون"

- هل يمكننا حتى التخلص من التحيز في الذكاء الاصطناعى؟

- هذه مشكلة نامية ومعقدة إلى حد ما. فكر في مدى سرعة تطور اللغة. من الصعب للغاية تصميم الأنظمة التي تفهم كيف يحدث ذلك وإزالة أنواع جديدة من التحيز والتمييز عند ظهورها. يجب أن يسيطر الناس على هذه الأنظمة ، نحتاج إلى وضع إمكانية التدخل البشري فيها. يمكن للشخص تصميم النظام المثالي؟ الذي يزيل التحيز قبل أن ينشأ؟ ربما لا. في جميع بياناتنا ، هناك تحيز للأشخاص. في الواقع ، نحن بحاجة إلى إنشاء نظام أفضل من الناس.

- هل هذا ممكن؟

- يمكنك تحسين النظام في هذا الاتجاه. نرى اليوم الكثير من الأشخاص الأذكياء الذين لا يفكرون فقط في كيفية تطوير النظم بأنفسهم ، ولكن أيضًا حول القواعد العامة للتصميم والتطوير التي يمكن للآخرين استخدامها. أعتقد أن هذه بداية جيدة ، سنتمكن من التعلم من أخطاء الماضي وإنشاء أنظمة لا يوجد فيها تحيز في البيانات.

الصورة: خارج المهرجان

- نشرت اليونسكو مؤخرًا تقريرًا عن النوع الاجتماعيالتمييز في المساعدين الصوتيين - كلهم ​​لديهم أصوات نسائية. واحد من الإجراءات اللازمة ، ودعا واضعو التقرير تطوير آلة ، صوت محايد جنسانيا. كيف تشعر حيال هذا؟

- الأمر صعب للغاية: يجب أن يكون الناس قادرين على اختيار صوت مساعدهم؟ أم ينبغي اتخاذ قرار عام يؤثر على مليارات الناس؟ يمكن ثلاث شركات اتخاذ هذا القرار؟ المشكلة ليست فقط في النوع الاجتماعي - لا توجد أصوات تقريبًا تمثل أشخاصًا من ثقافات مختلفة أو جماعات عرقية. لا يزال هناك الكثير من العمل في هذا المجال ، ولست متأكدًا من وجود إجابة بسيطة.

يُطلق على تقرير اليونسكو "استحى إذا استطعت"("سوف أتحول إلى اللون الأحمر إذا استطعت" - "التكنولوجيا الفائقة") - هذا هو رد Siri على الإهانات العديدة للمستخدمين في عنوانها. يرى مؤلفو التقرير المشكلة في أن جميع المساعدين الصوتيين يستخدمون أصوات الشابات ، وأنهم ، من بين أمور أخرى ، لا يستجيبون للإهانات القائمة على التمييز بين الجنسين. تدعو اليونسكو إلى زيادة التوازن بين الجنسين في الفرق التي تطور الذكاء الاصطناعى: الآن 12٪ فقط من باحثي الذكاء الاصطناعي هم من النساء

"أريد المزيد من الخصوصية"

- العودة إلى مسألة الخصوصية - ألا تعتقد أن الناس في الآونة الأخيرة كانوا يخافون أكثر من اللازم؟

- لا ، أنا منذ فترة طويلة ناشط في حماية البيانات ،هذا جزئيًا سبب انضمامك إلى الفريق. أنا لست من النوع الذي يعتقد الناس الذعر أكثر من اللازم. أنا شخص من النوع الذي تعتبره العائلة والأصدقاء مجنونين ، على مستوى "غطاء رقائق". يبدو لي أن الناس يجب أن يهتموا بالتأكيد بخصوصياتهم. إذا لم تكن مهتمًا ، فاطرح الأسئلة على الأقل. وعليهم توقع أن تخبرهم الشركة التي تستخدم بياناتهم عنها.

"الآن تحاول الشركات بالفعل أن توضح بشكل أكثر تحديداً ما يحدث بالبيانات. ما هي الخطوات التالية في هذا الاتجاه؟

- لا أعتقد أن الناس ملزمون بفهم كل شيءمدى تعقيد كيفية استخدام بياناتهم على الإنترنت. الناس لديهم فهم مشترك ، وهذا ما أكده بحثنا. على سبيل المثال ، معظم الخدمات مجانية لأن البيانات تُستخدم للإعلان. ولكن عندما يتعلق الأمر بالأشخاص والشركات المشكوك في صحتهم والذين يرغبون في الوصول إلى البيانات ، فإنهم يستخدمون مطبوعات الأجهزة الرقمية - لا أعتقد أنه ينبغي على الناس معرفة ذلك. إنها عمل الشركات لحماية المستخدمين

- لا يمكنك معرفة بالضبط عن المشاريع الجديدة؟

- أستطيع أن أقول بعبارات عامة: يجب أن يكون المستخدمون قادرين على القول بطريقة بسيطة للغاية: "أريد مزيدًا من الخصوصية". نحن نعمل لجعل هذا حقيقة واقعة في جميع منتجاتنا الرئيسية.

- كيف؟ اضغط على زر "جعل كل شيء خاصًا"؟

- بالطبع ، لن نضع عملاقالتبديل بالكلمات "الخصوصية" في بحث Google. من الصعب جدًا جعل الفرق تعمل على منتجات يبلغ عدد جمهورها أكثر من مليار مستخدم - البحث والخرائط وأندرويد ويوتيوب - لإجراء تغييرات تؤثر بشكل كبير على أفكارهم. هذا لا يحدث في يوم واحد. لكننا نعمل على ذلك.