الذكاء الاصطناعي في العالم الحقيقي

إن تطوير أنظمة الذكاء الاصطناعي المعقدة في المختبر مهمة صعبة. ولكن ماذا يحدث عندما تدخل هذه الأنظمة العالم الحقيقي وتبدأ في التفاعل مع أناس حقيقيين؟ هذا ما يحاول الباحثون اكتشافه ، بما في ذلك الدكتور فرناندو دياز ، مدير الأبحاث الأول في Microsoft Research Montreal. اليوم ، سيتبادل الدكتور دياز أفكاره ويجيب على أسئلتنا حول الذكاء الاصطناعي وتأثيره على المجتمع.



يحاول فرناندو مع الزملاء فهم كيفية تأثير أنظمة الذكاء الاصطناعي على المجتمع والدخول إلى العالم الحقيقي وكيفية التعامل مع العواقب.

كما سيتحدث عن كيف يمكن للتكنولوجيا تشكيل الأذواق الموسيقية وشرح سبب أهمية تعليم الطلاب في علوم الكمبيوتر اليوم ، ليس فقط الخوارزميات ، ولكن أيضًا المبادئ الأخلاقية.



المقابلة


عندما أبدأ تجربة ، أسأل نفسي: أي تجارب المستخدم تعتبر أخلاقية وأيها ليست كذلك؟ ما مدى الحاجة إلى إعلام الأشخاص بأنهم أصبحوا مشاركين في التجربة؟ كيفية التعرف على بيانات التحيز التي تستخدمها تقنيات التعلم الآلي والقضاء عليها؟ يتبادر إلى الذهن أولاً. في السنوات التالية ، ستظهر العديد من الأسئلة الأخرى ، على سبيل المثال ، كيفية تطوير أنظمة الذكاء الاصطناعي بطريقة تثبت احترام المستخدمين.

إنك تستمع إلى Microsoft Research Podcast. نقدم لكم هنا أبحاث التكنولوجيا المتقدمة والعلماء وراءها. أنا مضيف Gretchen Huizinga.

إن تطوير أنظمة الذكاء الاصطناعي المعقدة في المختبر مهمة صعبة. ولكن ماذا يحدث عندما تدخل هذه الأنظمة العالم الحقيقي وتبدأ في التفاعل مع أناس حقيقيين؟ هذا ما يحاول باحثون مثل الدكتور فرناندو دياز ، مدير الأبحاث في Microsoft Research Montreal ، اكتشافه. يحاول فرناندو مع زملائه فهم كيفية تأثير أنظمة الذكاء الاصطناعي على المجتمع والدخول إلى العالم الحقيقي وكيفية التعامل مع العواقب.

اليوم ، سيتبادل الدكتور دياز أفكاره ويجيب على أسئلتنا حول الذكاء الاصطناعي وتأثيره على المجتمع. كما سيتحدث عن كيفية تشكيل التكنولوجيا للأذواق الموسيقية وشرح سبب أهمية تعليم الطلاب في علوم الكمبيوتر اليوم ، ليس فقط الخوارزميات ، ولكن أيضًا المبادئ الأخلاقية. حول هذا وأكثر من ذلك بكثير - في الإصدار الجديد من البودكاست Microsoft Research.

فرناندو دياز ، أهلاً بك في البودكاست.

شكرا لك

أنت مدير أبحاث أول في Microsoft Research Montreal وتعمل في مجال الذكاء الاصطناعي والبحث واسترجاع المعلومات. لكنك تتعلم أيضًا مبادئ الإنصاف والمساءلة والشفافية والأخلاق (الإنصاف والمساءلة والشفافية والأخلاق ، مصير). بمعنى آخر ، بشكل عام (سنتطرق إلى التفاصيل لاحقًا): ما الذي يجعلك تستيقظ في الصباح؟ ما الأسئلة الجادة التي تبحث عنها للحصول على إجابات ، وما المشكلات المهمة التي تريد حلها؟

العديد من الأنظمة التي نقوم بإنشائها ناجحة للغاية. البحث عن المعلومات ، والبحث على شبكة الإنترنت ، والرؤية الحاسوبية - تم تطوير جميع هذه التقنيات على مدى سنوات عديدة. اليوم هم يملؤون بنشاط السوق الشامل ، ويبدأ الناس في استخدامها كل يوم. ومع ذلك ، لم يفكر بعض المتخصصين في تكنولوجيا المعلومات كما ينبغي عند تصميم هذه التقنيات: في أي سياق اجتماعي سيتم استخدامها.

وفي هذه الحالة ، أنا أحاول فقط فهم المتطلبات الاجتماعية الموجودة لإنشاء هذه الأنظمة ، وكيف أن السياق الاجتماعي الذي تعمل فيه لا يؤثر فقط على مؤشراتنا ، على سبيل المثال ، دقة واكتمال البيانات التي تم إرجاعها ، ولكن أيضًا على المجتمع ككل . يبدو لي أن هذه المشكلة تأتي في طليعة محترفي تكنولوجيا المعلومات ، نظرًا لأن العديد من هذه التقنيات ، التي تم تطويرها في عزلة ، بدأت الآن فقط في دخول السوق.

لذا ، فأنت متخصص في تكنولوجيا المعلومات ، لقد بحثت في الخوارزميات للحصول على المعلومات والتعلم الآلي والأساليب الإحصائية. ومع ذلك ، فقد كنت مهتمًا مؤخرًا بتفاعل تقنيات الذكاء الاصطناعي مع المجتمع ، على وجه الخصوص ، عواقب توزيعها على نطاق واسع أو ، كما يقول البعض ، نشرها. لماذا أنت مهتم بها الآن؟ ما الذي يزعجك؟ ما الذي حفز اهتمامك بهذا المجال؟

سؤال عظيم. أولاً ، بالطبع ، دخلت القضاء ، وحصلت على درجة. لقد درست كل هذه الأنظمة ، إذا جاز التعبير ، على المستوى التجريدي ، جربت البيانات الثابتة التي تم الحصول عليها في وضع عدم الاتصال. بعد فترة وجيزة من التخرج ، انتهى بي المطاف في مختبر البحوث الصناعية. هنا عملت مع عمال الإنتاج ، وانخرطنا في التطبيق العملي للتقنيات التي درستها في الجامعة.



ثم بدأت أفهم: عندما نقيس هذه الخوارزميات ونوفرها للمستخدمين الحقيقيين ، فإن معظم الافتراضات الأساسية التي تم طرحها في المختبر غير قابلة للتطبيق تمامًا في الواقع. بالنسبة لي كان نوعًا من الفحص النهائي لكل بحثي ، والعودة إلى المبادئ الأساسية ومحاولة لفهم ماهية المشكلة ، وكيف يمكنني تقييم النتائج بدقة وتحقيق مؤشرات محددة.

أي أنك عملت بالفعل في Microsoft Research ، ثم غادرت هناك ، ثم عدت مرة أخرى. لقد بدأت في نيويورك ، والآن انتقلت إلى مونتريال. لماذا عدت؟

بعد الجامعة ، بدأت العمل البحثي في ​​مونتريال ، واضطررت ، لعدد من الأسباب ، إلى المغادرة هناك. ولكن ، في العيش هناك ، أدركت أنه في هذه المدينة - كما هو الحال في كندا ككل - فإن تقاليد البحث في مجال تكنولوجيا المعلومات والتعلم الآلي قوية جدًا. وفي أعماقي كنت أرغب دائمًا في العودة إلى هنا للمشاركة في هذا العمل. وعندما أتيحت لي الفرصة للعودة إلى مختبر أبحاث Microsoft في مونتريال ، استفدت من ذلك بكل سرور. خاصة عندما تفكر في أن المختبر يشارك بشكل كامل في تطوير الذكاء الاصطناعي. في مونتريال ، تم إجراء بحث نشط للغاية في هذا المجال ، وأردت أن أصبح جزءًا من كل هذا ، لتقديم مساهمتي.

دعنا نقول بضع كلمات عن مونتريال. أصبحت هذه المدينة مكة حقيقية في كل ما يتعلق بالذكاء الاصطناعي ، ومختبر SMR Montreal لديه مهمة محددة للغاية - لتعليم الآلات القراءة والتفكير والتواصل بنفس الطريقة التي يفعل بها الناس. أخبرنا عن مدى تقدمك في هذا المسار وكيف ترتبط أبحاثك الخاصة بعمل مختبر مونتريال.

أعتقد أنه تم إنشاء مختبر خاص مخصص لدراسة الذكاء الاصطناعي نظرًا لوجود العديد من الأسئلة المتعلقة بتطوير هذه الأنظمة ، ولم يتم العثور على إجابات بعد. وأعتقد أن هذا يتطلب ليس فقط المتخصصين في معالجة اللغات الطبيعية ، وليس فقط المتخصصين في التعلم التفاعلي أو في تحفيز التعلم. في الواقع ، يجب أن يعملوا جميعًا بشكل وثيق. ويبدو لي أن هذا هو ما يجعل مختبرنا فريدًا حقًا.

مهمتي اليوم هي القدوم إلى المختبر ، إن أمكن ، التواصل مع المتخصصين وإخبارهم كيف يمكن أن تتصرف هذه الأنظمة عندما يبدأ الأشخاص الحقيقيون في التفاعل معهم. كما قلت سابقًا ، من السهل إلى حد ما تطوير هذه الأنظمة بمعزل عن الواقع ، في عزلة. ولكن عندما يبدأ تنفيذها العملي ، اتضح أنه تم إجراء العديد من الافتراضات أثناء التجارب. الآن أقوم بتشكيل فريق مهمته هي توقع ظهور مثل هذه الأسئلة ، تحسين تطوير النظام ، زيادة استقراره في سياق ، على سبيل المثال ، الاختلافات بين مجموعات الأشخاص الذين نتفاعل معهم ، أو الاختلافات داخل قاعدة المعرفة التي استخلص منها المعلومات.

أي فريق تريد تشكيله؟

أحاول إنشاء نوع من "الأخت" لمجموعة FATE التي نظمناها في نيويورك قبل عدة سنوات. سنركز على العواقب الاجتماعية لدمج الذكاء الاصطناعي في المجتمع. سيضم فريقنا متخصصين ليس فقط في مجال تكنولوجيا المعلومات ، ولكن أيضًا في التخصصات ذات الصلة ، على سبيل المثال ، في علم الاجتماع. حتى يتمكن محترفو تكنولوجيا المعلومات من فهم العواقب للمجتمع بشكل أفضل ، نحتاج إلى علماء اجتماع خبراء ، وعلماء أنثروبولوجيا ، وما إلى ذلك. سيكونون قادرين على إخبار الكثير من الأشياء المفيدة حول هذه الأشياء التي لم نقم بتقييمها أو أخذها في الاعتبار.

نعم ، لنتحدث عن هذا بمزيد من التفصيل. تطبيق مبادئ FATE في مختلف البحوث في مجال الذكاء الاصطناعي والتعلم الآلي ذات أهمية قصوى اليوم. كما قلت ، السبب هو أنه لا يمكن دراسة جميع القضايا الخلافية بشكل صحيح في المختبر. جنبا إلى جنب مع النتيجة المخطط لها ، يمكن أن تنشأ عواقب الناس غير المتوقعة تماما ، مروعة. لذا ، فإن الباحثين في هذا المجتمع لديهم تخصصات وتعليم مختلف. ما هي مساهمة كل من الخبراء عندما يتعلق الأمر بمبادئ النزاهة والمساءلة والشفافية والأخلاق؟

نعم ، يفهم علماء الاجتماع بشكل أفضل بكثير الجوانب المختلفة لتطبيق التكنولوجيا بشكل عام ، فهم يعرفون العواقب الإيجابية والسلبية المحتملة ، حول كيفية تفاعل الناس مع تلك أو الأدوات الأخرى التي نقدمها. سيتمكن المتخصصون الحاصلون على تعليم قانوني من التعليق على الخلفية السياسية للتكنولوجيات الفردية التي يتم تطويرها وسيساعدوننا على فهم مفهوم "الصدق" على سبيل المثال.

خبراء تكنولوجيا المعلومات ، بدورهم ، يفهمون بشكل أفضل جوهر الأنظمة التي يتم تطويرها ، وهم قادرون على ترجمة مفاهيم مثل "الصدق" إلى مفهوم قابل للتطبيق ودمجها في النظام. ومع ذلك ، فإن وجود وجهات نظر مختلفة جدًا حول نفس المشكلة هو أمر ضروري ببساطة من أجل تصميم الأنظمة بشكل أكثر كفاءة.

دعنا نعود إلى ما قمت به في الماضي وما تواصل العمل عليه الآن: الوصول إلى أنظمة المعلومات ومحركات البحث والحصول على المعلومات. في الوثيقة التي كتبتها ، تتحدث عن وجود فجوة معينة بين دراسة هذه الأنظمة وتنفيذها العملي ، ولكنك في نفس الوقت تدلي ببيان استفزازي بأن المؤسسات التعليمية ستتعامل بشكل أفضل مع بعض المشاكل من المتخصصين الفنيين في الصناعة. ما هي هذه المشاكل ولماذا تعتقد ذلك؟

دعونا نلقي نظرة على الوضع في مجال البحث بشأن الوصول إلى المعلومات. هناك علماء من المؤسسات التعليمية قاموا بالكثير من أجل خير المجتمع ، ولكن اليوم العديد من الدراسات ، على سبيل المثال في مجال البحث على شبكة الإنترنت ، يتم إجراؤها بواسطة عمالقة بحث كبيرة تحتوي على بيانات ومعلومات المستخدم ، وما إلى ذلك. والعلماء في معظم الحالات لا يستطيعون الوصول إلى مثل هذه البيانات ، وهي منصة لإجراء التجارب. لذلك ، من الواضح أن فرص البحث غير متكافئة.

وكتبت في مقالتي أن الطاقم العلمي للمؤسسات التعليمية ليس لديه كمية كبيرة من البيانات ، ولكن لديهم القدرة على جذب متخصصين متنوعين ، وهو ما لا يستطيع عمالقة البحث القيام به. يوجد بالجامعة علماء اجتماع وخبراء في علوم أخرى. هناك مدرسين للتخصصات الاقتصادية. كل هؤلاء "الشركاء" البحثيين المحتملين سيساعدون في النظر إلى المشكلة على نطاق أوسع ، لدراستها من وجهات نظر مختلفة ، بدلاً من الوقوع في وجهة النظر الوحيدة التي يلتزم بها عملاق البحث.

أعتقد أن بناء مجموعات البيانات ليست سوى واحدة من الاستراتيجيات. نهج آخر ، أو نوع من المنبر العلمي ، لا يمكن الوصول إليه من قبل المؤسسات التعليمية ، هو التجارب. يمكنني إجراء اختبارات أ / ب. يمكنك إعداد تجارب محكومة تتضمن عينة كبيرة من المستخدمين ، والتي لا تتوفر في مجموعة البيانات.

نعم هذا صحيح.

ومع ذلك ، يبدو لي أنه من الجدير استكشاف كيف نوفر للمؤسسات التعليمية حقًا الوصول إلى مواردنا لإجراء مثل هذه التجارب الخاضعة للرقابة.

مثير للاهتمام.

كل هذا حدث بشكل عشوائي ، بشكل عشوائي ، ويبدو لي أن هذا هو بالضبط ما نحتاجه ، نحن باحثي الصناعة ، للتفكير فيه: كيفية جعل الوصول إلى هذه الفرص أسهل وأكثر راحة.

لذا ، دعنا نعود إلى البيانات. دعنا نقول بضع كلمات عنها. اتفق خبراء التعلم الآلي على أن "البيانات الضخمة" ببساطة ليست كافية - وأنا أقول على وجه التحديد "البيانات الضخمة" بين علامتي اقتباس. من بين أمور أخرى ، مطلوب بيانات عالية الجودة وموضوعية. نحن نعلم أن جميع مجموعات البيانات الضخمة هذه تفتقر إلى درجة ما من الموضوعية.

ونحن بحاجة إلى إصلاحه. اليوم ، هناك الكثير من الحديث حول كيفية زيادة موضوعية البيانات من خلال ، على سبيل المثال ، تدقيق محركات البحث ، والخوارزميات لضمان المساواة وما شابه. كيف تفعل ذلك؟

أحد أسباب قلقنا بشأن انحياز البيانات: سيكون النموذج المدرب على أساس هذه البيانات متحيزًا أثناء النشر. أي أن أهم شيء هو أن تكون قادرًا على تحديد كيفية عمل الذكاء الاصطناعي بشكل موضوعي. وإذا كان متحيزًا ، فأنت بحاجة إلى العودة وإعادة تدريب الخوارزمية أو إضافة قيود إليها لن تسمح لك بالتحيّز من البيانات. يركز عملي اليوم بشكل أساسي على التقييم والقياس.



نريد أن نفهم المستخدمين الذين يصلون إلى النظام ، وفهم ما يحتاجون إليه ، وتقييم النظام ، بشكل موضوعي أو متحيز ، مع الأخذ في الاعتبار من هم هؤلاء المستخدمين ، والمجموعة السكانية التي ينتمون إليها. وهذا يتطلب خبرة غنية اكتسبها المتخصصون في الحصول على معلومات تمكنوا ، منذ بداية هذا البحث في الخمسينات من القرن العشرين ، من التفكير في جميع خوارزميات التقدير والقياس. هذا ما يسمح لك بإيجاد توازن طبيعي بين المراجعة والتقييم والحصول على المعلومات.

كما قلنا ، فإن التحيز عبارة عن كلمة طنين بين الباحثين في مجال معالجة البيانات وتحليلها والذكاء الاصطناعي. ومع ذلك ، تقول أنه بالإضافة إلى التحيز ، هناك مشاكل أخرى ذات طبيعة اجتماعية تحتاج إلى معالجة. ما هي هذه المشاكل ، وكيف يمكن للبحوث أن تساعد في حلها؟

نعم ، أعتقد حقًا أن التحيز مشكلة مهمة جدًا ، ولكن لماذا تحدثت حتى عن السياق الاجتماعي لاستخدام الذكاء الاصطناعي؟ لأنني أعتقد أن التحيز ليس سوى واحدة من المشكلات الاجتماعية التي يمكننا تحديدها. بالطبع ، هناك آخرون. من الواضح أن أحدها يتعلق بالشفافية. كيف يمكنني اتخاذ القرارات التي تتخذها الخوارزمية بشكل شفاف للمستخدمين ، ودعهم يشعرون أنه يمكنهم التحكم في الموقف ، والمشاركة في عمل الخوارزمية؟

المشكلة الثانية هي الخلفية الثقافية للخوارزميات. كل هذا يحدث في سياق ، على سبيل المثال ، اختيار التوصيات للأفلام أو الموسيقى. على سبيل المثال ، أقوم بإنشاء نظام كبير لتحديد توصيات الموسيقى للمستخدمين. ماذا ستكون عواقب نشر هذه الخوارزمية على الثقافة ، إذا علمت ، على سبيل المثال ، أنه بإضافة مؤدين فرديين إلى التوصية ، من الممكن تشكيل الأذواق الموسيقية لشخص ما بطريقة معينة؟ ماذا يعني خلق ثقافة أو الحفاظ عليها على المدى الطويل؟

هناك جانب آخر لهذه المشكلة: الخوارزميات لاختيار توصيات الموسيقى يمكن أن يكون لها تأثير كبير على المؤلفين أو المؤدين أنفسهم. كمحترف في تكنولوجيا المعلومات ، يمكنني القول أن هذه هي أفضل خوارزمية لاختيار توصيات الموسيقى. وسأقدمها إلى السوق. لكننا نحن متخصصي تكنولوجيا المعلومات لم نفكر على الإطلاق في كيفية تأثير هذه الخوارزمية على المؤلفين. بالنسبة لي شخصياً ، هذا مهم بشكل خاص.

فكيف ستجري دراسات تأخذ كل هذا في الاعتبار؟

دعنا نعود إلى المثال مع تحديد توصيات الموسيقى. تخيل أنك على اتصال وثيق بالموسيقيين وتفهم تمامًا مدى أهمية ذلك بالنسبة لهم. ماذا سيكون عليهم أن يعرفوا أنهم مستبعدون من النظام؟ كيف يبدو الشعور بأن حياتهم محكومة بنظام اختيار التوصيات ، ولا يمكنهم على الإطلاق التأثير عليها؟ بصفتي متخصصًا في تكنولوجيا المعلومات ، أحتاج فقط إلى الجلوس على طاولة مع علماء الاجتماع وعلماء الأنثروبولوجيا والمتخصصين في وسائل الإعلام ، من أجل فهم أفضل لمجموعة كبيرة من السكان مثل الموسيقيين.

وبعد ذلك ، يمكنني ، متخصصًا في تكنولوجيا المعلومات ، أن أجلس وأفكر في كيفية إنشاء خوارزمية تفي باحتياجات المستمعين والموسيقيين. يبدو لي الآن أن هذه الصيغة تبدو بسيطة للغاية. لهذا أريد من متخصص في التخصصات الأخرى أن يخبرني: "فرناندو ، كما تعلم ، لم تفكر في هذا ، هذا وذاك".

بالنظر إلى طبيعة بحثك والنتائج ، هل يمكنك إخبارنا بما يجب أن نقلق بشأنه؟ هل هناك أشياء تمنعك من النوم بشكل سليم؟

أنا شخصياً أشعر بالقلق من حقيقة أن العديد من التقنيات التي تم تطويرها في مجتمعنا البحثي تخرج إلى العالم ويتم إطلاقها في التداول الشامل في غضون أيام أو أسابيع. ويتم ذلك من قبل أشخاص لم يجروا أي تجارب. لا يوجد خطأ في "العلم المفتوح" ، ولكن أعتقد أنه يجب أن نتعلم المزيد ونتفهم بشكل أفضل عواقب تطبيق الخوارزميات قبل تنفيذها في مكان ما. ومما يزعجني أننا نطلق بسرعة كبيرة المزيد والمزيد من الخوارزميات الجديدة ، دون تقدير عواقبها وفهمها بالكامل.

تشتهر Microsoft Research Lab بتعاونها الوثيق مع المؤسسات التعليمية. وأنا أعلم أنك تولي اهتماما كبيرا بالتعليم. دعونا نتحدث عما يحدث للتعليم من حيث مبادئ المصير - الصدق والمساءلة والشفافية والأخلاق. أخبرنا كيف ترى مستقبل البرامج التعليمية في هذا المجال.

تعلمون ، عندما دخلت القضاء ... أو حتى قبل ذلك ، بينما كنت أدرس في قسم تكنولوجيا المعلومات ، لم نتعلم عمليًا مبادئ الأخلاق ولم نتحدث عن عواقب التقنيات التي نطورها على المجتمع. , , , . , . , .

-, , , , , . , , . , - , . - , , . , , , .

— — . , , , , .

: « , : , — ? , ? , ?». . , , .



, , « ». , , , , . , , . , , . , .

نعم , , , , , . , , -. . , , .

, : ? : , , , , . , ?

, , … , , . , , . , , , , .

, , . , , , , , — . .

, , , (FATE) IT, . - .




12 AI-Community « ». .

-, , , « » .

, !

Source: https://habr.com/ru/post/ar423233/


All Articles