المشكلة الرئيسية للذكاء الاصطناعي هي أنه لا أحد يفهم تمامًا كيف يعمل



في العام الماضي ، بدأت سيارة روبوتية غريبة في القيادة على طول طرق مقاطعة مونماوث بولاية نيو جيرسي. هذه السيارة التجريبية ، التي طورها متخصصو Nvidia ، لا تختلف كثيرًا في المظهر عن السيارات المستقلة الأخرى من الشركات المصنعة الأخرى ، مثل Google أو Tesla أو General Motors. ولكن خاصة لهذه السيارة ، تم تطوير نظام تحكم جديد. هي ذاتية التعلم ، ولا تعتمد على الإعدادات المحددة في الإنتاج. وبدلاً من ذلك ، تراقب السيارة الآلية تصرفات السائق البشري وتتعلم منه.

هذه طريقة غير معتادة قليلاً لتدريب سيارة روبوتية. من ناحية أخرى ، يتخيل عدد قليل من الناس بشكل كامل كيف تتخذ الآلة القرارات. تدخل المعلومات من أجهزة الاستشعار والرادارات والأغطية إلى الشبكة العصبية ، حيث تتم معالجة هذه البيانات مع تخصيص قواعد واضحة للتحكم في عجلة القيادة والمكابح والأنظمة الأخرى. ونتيجة لذلك ، اتضح أن أفعال السيارة الآلية غالبًا ما تكون مشابهة لأفعال السائق البشري الذي وقع في نفس الموقف على الطريق. السؤال الذي يطرح نفسه - هل يمكن للسيارة اتخاذ قرار غريب في إحدى الحالات - على سبيل المثال ، اصطدام شجرة بأقصى سرعة أو الوقوف عند إشارة مرور عند تشغيل الضوء الأخضر؟

يمكن مقارنة معلومات معالجة الشبكة العصبية بمربع أسود. لا ، بالطبع ، يتصور الخبراء مبدأ معالجة البيانات عن طريق الشبكة العصبية بشكل عام. لكن المشكلة هي أن التدريب الذاتي ليس عملية محددة سلفًا تمامًا ، لذلك في بعض الأحيان يمكن توقع نتائج غير متوقعة على الإطلاق في المخرجات. في صميم كل شيء يكمن التعلم العميق ، الذي سمح لنا بالفعل بحل عدد من المشاكل المهمة ، بما في ذلك معالجة الصور والتعرف على الكلام والترجمة. من الممكن أن تكون الشبكات العصبية قادرة على تشخيص الأمراض في مرحلة مبكرة ، واتخاذ القرارات الصحيحة عند التداول في البورصة ، وتنفيذ مئات من الإجراءات البشرية الهامة الأخرى.

ولكن عليك أولاً إيجاد طرق لفهم أفضل لما يحدث في الشبكة العصبية نفسها عند معالجة البيانات. خلاف ذلك ، من الصعب ، إن أمكن ، التنبؤ بالأخطاء المحتملة للأنظمة ذات الشكل الضعيف للذكاء الاصطناعي. وستكون مثل هذه الأخطاء بالتأكيد. هذا هو أحد الأسباب التي تجعل السيارة من نفيديا لا تزال قيد الاختبار.

يطبق الشخص الآن النماذج الرياضية من أجل تسهيل مهمة الاختيار لنفسه - على سبيل المثال ، لتحديد مقترض موثوق به للأموال أو للعثور على موظف لديه الخبرة اللازمة لنوع من العمل. بشكل عام ، النماذج والعمليات الرياضية التي تستخدمها بسيطة نسبيا ومباشرة. لكن الشركات العسكرية والتجارية والعلماء يستخدمون الآن أنظمة أكثر تعقيدًا ، والتي لا تستند "قراراتها" على نتائج نموذج أو نموذجين. يختلف التعلم العميق عن المبادئ المعتادة لتشغيل الكمبيوتر. وفقًا لتومي جاكول ، الأستاذ في معهد ماساتشوستس للتكنولوجيا ، أصبحت هذه المشكلة ذات صلة متزايدة. يقول: "مهما فعلت ، اتخذ قرارًا بشأن الاستثمارات ، وحاول إجراء تشخيص ، واختر نقطة هجوم في ساحة المعركة ، وكل هذا لا يجب أن يعتمد على طريقة الصندوق الأسود".

هذا لا يفهمه العلماء فقط ، ولكن أيضًا من قبل المسؤولين. بدءًا من الصيف المقبل ، يقدم الاتحاد الأوروبي قواعد جديدة لمطوري وموردي حلول أنظمة الكمبيوتر الآلية. سيطلب من ممثلي هذه الشركات أن يشرحوا للمستخدمين كيف يعمل النظام ، وما هي القرارات الرئيسية التي يتم اتخاذها. المشكلة هي أن هذا قد لا يكون ممكنا. نعم ، من الممكن شرح المبادئ الأساسية لتشغيل الشبكات العصبية دون مشاكل ، لكن القليل منهم يستطيع أن يقول بالضبط ما يحدث هناك أثناء معالجة المعلومات المعقدة. حتى مبدعو هذه الأنظمة لا يستطيعون تفسير كل شيء "من وإلى" ، لأن العمليات التي تحدث في الشبكة العصبية أثناء معالجة المعلومات معقدة للغاية.

لم يسبق أن قام رجل ببناء آلات لم يفهم المبدعون أنفسهم مبدأ التشغيل الخاص بها بالكامل وهو مختلف تمامًا عن طريقة استخدام المعلومات من قبل الشخص نفسه. فهل نتوقع تفاعلًا طبيعيًا مع الآلات التي لا يمكن التنبؤ بتشغيلها؟


رسم الفنان آدم فيريس باستخدام Google Deep Dream

في عام 2015 ، استخدم فريق أبحاث مستشفى جبل سيناء من نيويورك التعلم العميق لمعالجة قاعدة بيانات تسجيل المرضى. تضمنت قاعدة البيانات معلومات عن آلاف المرضى مع مئات السطور من المعلومات لكل شخص ، مثل نتائج الاختبار وتاريخ زيارة الطبيب ، إلخ. ونتيجة لذلك ، ظهر برنامج Deep Patient ، والذي تم تدريبه على مثال سجلات 700 ألف شخص. النتائج التي أظهرها هذا البرنامج كانت جيدة بشكل غير عادي. على سبيل المثال ، كانت قادرة على التنبؤ بظهور بعض الأمراض في مرحلة مبكرة لدى عدد من المرضى.

ومع ذلك ، اتضح أن النتائج غريبة بعض الشيء. على سبيل المثال ، بدأ النظام في تشخيص الفصام بشكل مثالي. ولكن حتى بالنسبة للأطباء النفسيين ذوي الخبرة ، فإن تشخيص الفصام مشكلة معقدة. لكن الكمبيوتر تعامل معها بانفجار. لماذا؟ لا أحد يستطيع أن يشرح ، ولا حتى مبدعي النظام.

في البداية ، تم تقسيم مطوري الذكاء الاصطناعي إلى معسكرين. قال مؤيدو الأول أنه يجب برمجة الآلة بحيث يمكن رؤية وفهم جميع العمليات التي تحدث في النظام. التزم المعسكر الثاني بفكرة أن الآلة يجب أن تتعلم من تلقاء نفسها ، وتلقي البيانات من الحد الأقصى لعدد المصادر ، تليها معالجة مستقلة لهذه البيانات. أي أن مؤيدي وجهة النظر هذه اقترحوا في الواقع أن كل شبكة عصبية يجب أن تكون "رئيسها".

بقي كل هذا نظريًا حتى اللحظة الحالية ، عندما أصبحت أجهزة الكمبيوتر قوية بما فيه الكفاية بحيث يمكن لخبراء الذكاء الاصطناعي والشبكات العصبية البدء في وضع أفكارهم موضع التنفيذ. على مدى السنوات العشر الماضية ، تم تنفيذ عدد كبير من الأفكار ، وظهرت خدمات ممتازة تساعد على ترجمة النصوص من لغة إلى أخرى ، والتعرف على الكلام ، ومعالجة دفق الفيديو في الوقت الحقيقي ، والعمل مع البيانات المالية ، وتحسين عمليات الإنتاج.



لكن المشكلة هي أن أي تقنية تعلُم الآلة تقريبًا ليست شفافة للغاية بالنسبة للمتخصصين. في حالة البرمجة "اليدوية" ، يكون الوضع أبسط بكثير. بالطبع ، لا يمكن للمرء أن يقول أن الأنظمة المستقبلية ستكون غير مفهومة لأي شخص. لكن التعلم العميق بطبيعته هو نوع من الصندوق الأسود.

لا يمكنك مجرد إلقاء نظرة على مبادئ الشبكة العصبية والتنبؤ بالنتيجة التي سنحصل عليها نتيجة لمعالجة نوع من مجموعة البيانات. يوجد داخل "الصندوق الأسود" عشرات ومئات "طبقات الخلايا العصبية" مترابطة في ترتيب معقد إلى حد ما. علاوة على ذلك ، فإن قيمة النتيجة النهائية ليست فقط عمل الطبقات ، ولكن أيضًا الخلايا العصبية الفردية. في معظم الحالات ، لا يمكن للشخص أن يتنبأ بما سيظهر عند إخراج الشبكة العصبية.

أحد الأمثلة على كيفية اختلاف الشبكة العصبية عن الدماغ البشري هو نظام Deep Dream. هذا أحد مشاريع Google ، وهي شبكة عصبية ، تم من خلالها إدخال صورة عادية وإعطاء هدف تحويل هذه الصورة وفقًا لموضوع معين. حسنًا ، على سبيل المثال ، اجعل كل الأشياء في الصورة تبدو كالكلاب. اعجبت النتائج الجميع. بطريقة ما ، تم إدخال مهمة إنشاء صورة الدمبل في النظام. تعامل النظام ، ولكن في جميع الحالات تم سحب أيدي الناس إلى الدمبل - قررت الشبكة العصبية أن ذراع الدمبل هو نظام واحد لا يمكن اعتباره عنصرين منفصلين.



يعتقد الخبراء أنه من الضروري فهم كيفية عمل هذه الأنظمة بشكل أفضل. هذا ضروري لسبب بسيط هو أنهم بدأوا في استخدام الشبكات العصبية في مجالات ذات أهمية متزايدة حيث يمكن أن يؤدي الخطأ إلى نهاية حزينة (تداول الأوراق المالية هو مثال واحد). "إذا كان لديك شبكة عصبية صغيرة ، يمكنك أن تفهم تمامًا كيف تعمل. ولكن عندما تنمو شبكة عصبية ، يزداد عدد العناصر فيها إلى مئات الآلاف من الخلايا العصبية لكل طبقة بمئات الطبقات - وفي هذه الحالة تصبح غير متوقعة ".

ومع ذلك ، يجب استخدام الشبكات العصبية في العمل ، في نفس الدواء. يقلّل الأطباء من أهمية العديد من البيانات ، فببساطة لا يستطيع الشخص التقاط عينيه والعثور على الروابط بين مئات السجلات في التاريخ الطبي للمريض. والآلة - ربما هذه هي القيمة الكبيرة للشبكات العصبية والتعلم العميق بشكل عام.

استثمر الجيش الأمريكي مليارات الدولارات في تطوير أنظمة التحكم الآلي في الطائرات بدون طيار ، وتحديد وتحديد الأشياء المختلفة ، وتحليل البيانات. لكن الجيش يعتقد أن عمل مثل هذه الأنظمة يجب أن يكون مفهوما وقابل للشرح. سيشعر هؤلاء الجنود المحتجزون في دبابة يتم التحكم فيها تلقائيًا بعدم الارتياح للغاية إذا لم يفهموا كيف وماذا يعمل ، ولماذا اتخذ النظام مثل هذا القرار ، وليس قرارًا آخر.

ربما تشرح هذه الأنظمة في المستقبل أفعالهم. على سبيل المثال ، قام كارلوس جسترين ، الأستاذ في جامعة واشنطن ، بتطوير نظام كمبيوتر يشرح النتائج المتوسطة لحساباته. يمكن استخدام هذا النظام لتحليل الرسائل الإلكترونية. إذا تم تقييم أي منهم بواسطة جهاز كمبيوتر كما تم إرساله من قبل إرهابي مشروط ، فسيتم توضيح سبب إجراء هذا الاستنتاج.

وفقًا للعالم ، يجب أن تكون التفسيرات بسيطة جدًا ومفهومة. يقول جسترين: "لم نصل بعد إلى الحلم الذي تتحدث فيه منظمة العفو الدولية معك فقط ويمكنها أن توضح". "نحن فقط في بداية رحلة طويلة نحو خلق ذكاء اصطناعي شفاف".

من المهم فهم الأسباب التي أدت بالذكاء الاصطناعي إلى نتيجة محددة إذا أردنا أن نجعل الذكاء الاصطناعي جزءًا من حياتنا وجزءًا مفيدًا. هذا صحيح ليس فقط في حالة الجيش ، ولكن ينطبق على Siri أو أي مساعدين رقميين آخرين. على سبيل المثال ، إذا طلبت من Siri تقديم مجموعة مختارة من المطاعم القريبة ، فعندئذٍ يرغب الكثيرون في فهم سبب عرض هذه المطاعم ، وليس غيرها. معيار مهم لتنفيذ الذكاء الاصطناعي هو الثقة البشرية في أنظمة الكمبيوتر.

على الأرجح ، لا يزال من المستحيل جعل الكمبيوتر يشرح جميع أفعاله وقراراته - لأنه ، على سبيل المثال ، غالبًا ما يكون من المستحيل فهم إجراءات وقرارات أي شخص. يعتمدون على عدد كبير من العوامل. وكلما كانت الشبكة العصبية أكثر تعقيدًا ، كلما أخذت هذه العوامل في الاعتبار والتحليلات.

وهذا يثير عددًا من القضايا المعقدة ذات الطبيعة الأخلاقية والاجتماعية. على سبيل المثال ، في حالة الجيش نفسه ، عندما يتعلق الأمر بإنشاء الدبابات الآلية وآلات القتل الأخرى ، من المهم أن تتوافق قراراتهم مع المعايير الأخلاقية البشرية. في الواقع ، قد لا يكون قتل نفسه وفقًا للمعايير الأخلاقية للعديد منا. لكن هذه القرارات يجب أن تكون مقبولة على الأقل للأغلبية. مع ذلك ، ما هي هذه الأغلبية؟ أيضا سؤال.

يقول دانييل دينيت ، الفيلسوف من جامعة تافتس ، ما يلي: "أعتقد أننا إذا كنا سنستخدم هذه الأشياء ونعتمد عليها ، فعندئذ علينا أن نفهم كيف ولماذا يتصرفون بهذه الطريقة وليس بطريقة أخرى. إذا لم يتمكنوا من شرح لنا ما يفعلونه بشكل أفضل ، فلا تثق بهم ".

Source: https://habr.com/ru/post/ar404521/


All Articles