كيفية تعليم الذكاء الاصطناعي الحس السليم



قبل خمس سنوات ، شاهد المبرمجون في DeepMind ، وهي شركة مقرها لندن ومقرها منظمة العفو الدولية ، منظمة العفو الدولية بسعادة وهم يتعلمون لعب لعبة آركيد كلاسيكية بمفردهم. لقد استخدموا تقنية عصرية للتعلم العميق (GO) للقيام بمهمة غريبة على ما يبدو: إتقان لعبة في Breakout ، صنعها Atari ، والتي تحتاج فيها إلى التغلب على كرة من جدار من الطوب حتى تختفي الطوب.

GO هو التعلم الذاتي للآلات. تقوم بإطعام كميات هائلة من البيانات لمنظمة العفو الدولية ، وتبدأ تدريجياً في التعرف على الأنماط بشكل مستقل. في هذه الحالة ، كانت البيانات هي ما كان يحدث على الشاشة - حيث تمثل البكسلات الكبيرة الطوب والكرة والمضرب. في AI DeepMind ، وهي شبكة عصبية تتكون من خوارزميات متعددة الطبقات ، لم يتم وضع أي معرفة حول قواعد لعبة Breakout ومبادئ عملها وأهدافها وأساليب اللعبة. سمح المبرمجون ببساطة الشبكة العصبية لدراسة نتائج كل عمل ، كل كرة ترتد. ماذا سوف يؤدي إلى؟

اتضح أنها مهارات رائعة. في المحاولات القليلة الأولى ، علقت منظمة العفو الدولية بشكل عشوائي. بعد أن لعب عدة مئات من المرات ، بدأ يضرب الكرة بدقة. بحلول اللعبة رقم 600 ، ظهرت الشبكة العصبية بحركات خبيرة يستخدمها الأشخاص الذين يلعبون لعبة Breakout ، عندما يكسر اللاعب ثقبًا في الطوب ويرسل الكرة للقفز فوق الحائط.

"كانت هذه مفاجأة كبيرة بالنسبة لنا" ، قال ديميس خصابس ، مدير DeepMind. "لقد جاءت الاستراتيجية من النظام نفسه". لقد أثبتت الذكاء الاصطناعى القدرة على التفكير الشاذ للإنسان بطريقة غير معتادة ، لفهم المفاهيم الداخلية التي تقوم عليها اللعبة. نظرًا لأن الشبكات العصبية تنسخ تقريبًا بنية الدماغ البشري ، من الناحية النظرية ، بمعنى ما ، عليها أيضًا نسخ أسلوب تفكيرنا. بدا أن هذه اللحظة هي تأكيد للنظرية.

ثم في العام الماضي ، قدم علماء الكمبيوتر في Vicarious ، وهي شركة أبحاث منظمة العفو الدولية ومقرها سان فرانسيسكو ، وسيلة مثيرة للاهتمام لاختبار الذكاء الاصطناعي في ظروف العالم الحقيقي. أخذوا نوع الذكاء الاصطناعي الذي استخدموه في DeepMind وقاموا بتدريبه على لعب Breakout. لقد فعل ما يرام. ثم بدأوا في تعديل تصميم اللعبة قليلاً. سيقومون إما برفع مضرب أو إضافة منطقة لا يمكن اختراقها في وسط الميدان.

يمكن للاعب البشري أن يتكيف بسرعة مع هذه التغييرات ؛ ولكن الشبكة العصبية لا يمكن. يبدو أن Crazy AI لا يمكنه إلا أن يلعب لعبة Breakout من النوع الذي درسها لمئات المحاولات. لم يهضم أي شيء جديد.

"لا يمكن للناس أن يتعرفوا فقط على الأنماط" ، هذا ما أخبرني ديليب جورج ، وهو متخصص في تكنولوجيا المعلومات ، أحد مؤسسي Vicarious. - نحن لا نزال نخلق نماذج لما نراه. وهذه النماذج السببية - نربط السبب والنتيجة. " يشارك الناس في التفكير ، ويستخلصون استنتاجات منطقية بشأن العالم من حولهم ؛ لدينا قاعدة معرفة جيدة تساعدنا على فهم المواقف الجديدة. عندما نرى الاختراق مختلفًا قليلاً عن الذي لعبناه للتو ، فإننا ندرك أنه من المرجح أن يكون له قواعد وأهداف مماثلة. لم تفهم الشبكة العصبية أي شيء عن الاختراق. هي فقط قادرة على متابعة الأنماط. عندما تغير النمط ، أصبحت عاجزة.

GO هو ملك الذكاء الاصطناعى. في السنوات الست التي اندفعت خلالها إلى التيار الرئيسي ، أصبحت الطريقة الرئيسية لتعليم الآلات كيفية إدراك وشعور العالم من حولهم. إنها وراء التعرف على الكلام من Alexa ، سيارات Waymo الآلية ، ترجمات Google الفورية. تعد Uber ، إلى حد ما ، مهمة تحسين عملاقة ، وتستخدم التعلم الآلي (MO) للتنبؤ بالمكان الذي سيحتاج فيه الركاب إلى السيارات. بايدو ، عملاق التكنولوجيا الصيني ، لديها 2000 مبرمج يعملون على الشبكات العصبية. لسنوات ، بدا أن GO ستتحسن فقط ، وستنجب بلا هوادة آلة ذات ذكاء مرن وسريع لتتناسب مع شخص ما.

ومع ذلك ، يزعم بعض الزنادقة أن الدفاع المدني يتاخم الجدار. يقولون إنه وحده لا يمكنه أبدًا توليد الذكاء الاصطناعي المعمم (AI) ، نظرًا لأن عقل الإنسان حقًا ليس فقط التعرف على الأنماط. لقد حان الوقت لكي نبدأ العمل على كيفية إعطاء الذكاء الاصطناعي اليومي ، العقل البشري. إذا لم ينجح ذلك بالنسبة لنا ، فإنهم يحذرون من أننا سنظل نتفرج على رؤوسنا في حدود GOs ، لأن أنظمة التعرف على الأنماط التي يمكن خداعها بسهولة عن طريق تغيير جزء من المدخلات ، ونتيجة لذلك فإن نموذج GO سيأخذ السلاحف في البندقية. لكن إذا تمكنا من القيام بذلك ، كما يقولون ، فسوف نشهد نمواً هائلاً في الأجهزة الأكثر أمانًا والأكثر فائدة - الروبوتات الطبية التي تتحرك في منزل مزدحم ، وأنظمة التعرف المزيفة التي لا تعاني من إيجابيات كاذبة ، والانجازات الطبية التي حققتها الآلات التي تدرس أسباب وعواقب الأمراض.

ولكن كيف يبدو التفكير الحقيقي في السيارة؟ وإذا لم يستطع المجتمع المدني أن يقودنا إلى هذا ، فماذا يمكن؟



غاري ماركوس أستاذ في علم النفس وعلم الأعصاب في جامعة نيويورك يبلغ من العمر 48 عامًا مع نظارة مزدوجة العدسة ، وربما يكون المرتد الأكثر شهرة للتعلّم الأرثوذكسي.

لأول مرة ، أصبح ماركوس مهتمًا بالذكاء الاصطناعى في الثمانينيات والتسعينيات ، عندما كانت الشبكات العصبية في المرحلة التجريبية ، ومنذ ذلك الحين لم تتغير حججه. أخبرني ماركوس عندما التقينا في شقته بالقرب من جامعة نيويورك (ليس أنا أيضاً أن أتأخر عن الحفلة ، وأريد أن أبتكر كل شيء هنا). "بمجرد حدوث انفجار GO ، قلت: يا شباب ، هذا هو الاتجاه الخاطئ!"

ثم استراتيجية GO لا تختلف عن الاستراتيجية الحالية. لنفترض أنك بحاجة إلى آلة لتعلم كيفية التعرف على الإقحوانات. تحتاج أولاً إلى تشفير "الخلايا العصبية" الخوارزمية عن طريق دمجها في طبقات مثل الساندويتش (عند استخدام عدة طبقات ، يصبح الزبد أكثر سمكًا أو "أعمق" - ومن ثم التعلم "العميق"). الطبقة الأولى التي تعرض صورة الإقحوان ، ويتم تنشيط الخلايا العصبية الخاصة بها أو عدم تنشيطها ، اعتمادًا على ما إذا كانت هذه الصورة تشبه أمثلة الإقحوانات التي تمت مشاهدتها من قبل. تنتقل الإشارة بعد ذلك إلى الطبقة التالية ، حيث تتكرر العملية. نتيجة لذلك ، تدقق الطبقات في البيانات ، لتمرير الحكم.

أولاً ، تعمل الشبكة العصبية في التخمين الأعمى ؛ إنها تبدأ الحياة من الصفر. خلاصة القول هي تنظيم ردود فعل مفيدة. في كل مرة لا تخمن فيها منظمة العفو الدولية الأقحوان ، في مجموعة الخلايا العصبية ، تضعف الروابط التي تؤدي إلى الإجابة الخاطئة. إذا كنت تخمن ، يتم تحسين الاتصالات. بعد مرور الوقت الكافي والإقحوانات ، تصبح الشبكة العصبية أكثر دقة. تتعلم الإمساك بأنماط معينة من الإقحوانات ، مما يسمح لها بتحديد الأقحوان في كل مرة (بدلاً من عباد الشمس أو زهور النجمة). على مر السنين ، تم تحسين الفكرة الرئيسية - البدء بشبكة ساذجة وتدريبها على التكرار - وبدا أنها مفيدة في جميع التطبيقات تقريبًا.

لكن ماركوس لم يكن مقتنعا. من وجهة نظره ، كانت لائحة نظيفة مشكلة: من المفترض أن الناس يطورون الذكاء فقط من خلال مراقبة العالم من حولهم ، مما يعني أن الآلات قادرة أيضًا على ذلك. لكن ماركوس يعتقد أن الناس لا يعملون بهذه الطريقة. يتبع المسار الفكري الذي وضعه نعوم تشومسكي ، الذي يدعي أن الناس يولدون مع استعداد للتعلم ومع برنامج لتعلم اللغات وتفسير العالم المادي.

ولاحظ أنه مع كل ما يشبه الدماغ ، يبدو أن الشبكات العصبية لا تعمل مثل الدماغ البشري. على سبيل المثال ، يحتاجون إلى الكثير من البيانات. في معظم الحالات ، تتطلب كل شبكة الآلاف أو الملايين من أمثلة التدريب. والأسوأ من ذلك ، في كل مرة تحتاج فيها إلى جعل الشبكة تتعرف على عنصر جديد ، يجب أن تبدأ من نقطة الصفر. إن الشبكة العصبية المدربة على التعرف على الكناري ليست مفيدة على الإطلاق في التعرف على أغاني الطيور أو الكلام البشري.

يقول ماركوس: "لا نحتاج إلى كميات هائلة من البيانات للتدريب". لا يحتاج أطفاله إلى رؤية مليون سيارة قبل أن يتمكنوا من التعرف على السيارة. والأفضل من ذلك ، أنهم يعرفون كيفية التعميم: عندما يرون جرارًا لأول مرة ، يفهمون أنها تبدو وكأنها سيارة. وهم يعرفون أيضًا كيف يفترضون العكس. يمكن لـ Google Translate إعطاء المعادل الفرنسي للجملة الإنجليزية "تم نقل الزجاج وسقط من على الطاولة." لكنه لا يفهم معنى الكلمات ، ولا يستطيع أن يخبرك بما سيحدث إذا لم تحرك الزجاج. الناس ، كما يلاحظ ماركوس ، لا يفهمون فقط قوانين القواعد ، ولكن أيضًا المنطق وراء الكلمات. يمكنك إعطاء الطفل "رقص" الفعل المبتكر ، وهو على الأرجح سيخمن أنه في "الزمن" الماضي سوف "يرقص". لكنه لم ير مثل هذه الكلمة من قبل. لم يكن "مدربين". لقد شعر بسلاسة منطق اللغة ويمكن أن يطبقها على موقف جديد.

يقول ماركوس ، الذي أسس الشركة التي أنشأت الذكاء الاصطناعي ، والتي يمكن أن تتعلم من بيانات أقل (وبيعها إلى أوبر في عام 2016): "لا تعرف أنظمة GO كيفية دمج المعرفة المجردة".

هذا العام ، نشر ماركوس نسخة مسبقة من العمل على arXiv ، حيث يدعي أنه من دون مقاربات جديدة ، لن تتغلب GO أبدًا على القيود الحالية. إنه يحتاج إلى طفرة - قواعد مدمجة أو مكملة تساعد الذكاء الاصطناعي على التفكير في العالم.

Source: https://habr.com/ru/post/ar431418/


All Articles