الذكاء الاصطناعي والتعلم الآلي هما تقنيتان ، سيؤدي تطبيقهما و / أو مشتقاتهما في المجتمع البشري إلى تغييرها بشكل جذري. ما هي الاتجاهات الملحوظة الآن بشكل خاص ، وما يفعله العلماء في جميع أنحاء العالم ، وما يحدث الآن - في هذا المقال.
1. العمل مع اللغات الطبيعية
بدأت جميع أنظمة ترجمة النصوص والتعرف على النصوص في العمل على أساس الشبكات العصبية المدربة. في الواقع ، يمكن رؤية ذلك بوضوح من خلال الترجمة نفسها من Google ، حيث تتزايد جودة الترجمة ، كما يمكن للمرء أن يقول يوميًا. على ما يبدو ، لا يتبقى سوى القليل من الوقت حتى تصبح نتائج المعالجة الآلية للنص قابلة للمقارنة بجودة عمل المترجمين المباشرين ، خاصةً منذ هذا العام ، ستقوم العديد من فرق البحث بتطوير مجمعات متعددة اللغات. لذلك ، ليس من الواضح جدًا ما إذا كان ، على سبيل المثال ، يستحق البدء في تعلم بعض الصينيين الآن.
2. يلقي الناس
لم يتم إحراز تقدم سيء في تدريب الشبكات العصبية لمحاكاة شخص معين وسلوكه وعاداته. تكمن المشكلة الرئيسية حتى الآن في أنه ليس من الواضح تمامًا أي نوع من البيانات يحتاج إليه الذكاء الاصطناعي ، بحيث يمكن كخيار أن يحاكي بشكل موثوق شخصية معينة ، على سبيل المثال ، في الاتصال عبر الإنترنت حتى لا يتمكن الأشخاص الذين يعرفونه جيدًا من التعرف على المزيفة. ولكن في بعض جوانب هذا العمل ، هناك بالفعل إنجازات جادة ، حيث إن الحكم من قبل جميع AIs سيكون قادرًا قريبًا على إعادة إنتاج الأسلوب الأدبي لمؤلف معين. في هذه اللحظة ، سيتعين على جميع المحررين العمل بجد ، رغم أنه من ناحية أخرى ، ربما بحلول ذلك الوقت ، سيصبح أسلوب العمل ، إلى جانب العمل نفسه ، موضوعًا لحقوق الطبع والنشر.
3. رؤية الكمبيوتر
حتى وقت قريب ، لتدريب الشبكات العصبية على التعرف على الأشياء ، كان لابد من تمييزها يدويًا ، والتي ، بعبارة ملطفة ، لم تكن سريعة جدًا وليست فعالة للغاية. ومع ذلك ، كان هناك تقدم كبير في العام الماضي في هذا المجال ، والآن أصبحت منظمة العفو الدولية قادرة على التعلم دون أدنى فكرة أو معدومة. في الوقت نفسه ، تعلمت الشبكات العصبية كيفية إنشاء صور لا يمكن تمييزها عن الصور دون خبرة خاصة ، وأنشأت نفيديا شبكة عصبية قادرة على فعل الشيء نفسه ، ولكن مع الفيديو. نظرًا لحقيقة أن "المفاهيم" بدلاً من "الأشياء" تلعب دورًا متزايد الأهمية في التواصل مع الذكاء الاصطناعى (على سبيل المثال ، "السلاحف الكبيرة" هي مفهوم ، و "منطقة الصورة ذات الإحداثيات المشابهة" هي كائن) ، قريبًا سيكون من الممكن إنشاء مواد فيديو اصطناعية بالكامل ، وفي الواقع "على الأصابع" تشرح لمنظمة العفو الدولية ما هو مطلوب منه.
سيتم ملء الإنترنت فورًا بأدلة الفيديو على الأحداث التي لم تحدث مطلقًا ، وسيصبح فهم ما يحدث بالفعل في العالم أكثر صعوبة.
4. الاستخدام العملي
إن المرحلة التي تدربت فيها منظمة العفو الدولية بشكل أساسي على حل المشكلات المصطنعة ، مثل لعب Go ، أو مناورات الشطرنج أو تحليل الخوارزميات والأحداث غير الطبيعية المصممة فقط لتدريبهم ، قد اكتملت تقريبًا. بدأت مرحلة إدخال الشبكات العصبية في الجوانب الحقيقية للنشاط البشري ، من نمذجة اتجاهات التبادل وإدارة حركة المرور في المناطق الحضرية إلى تحليل الجينوم وتطوير العقاقير. إنهم يعملون بنشاط على إدخال الشبكات العصبية في القطاع المالي ، وستصبح منظمة العفو الدولية قريبًا مساعدًا مخلصًا لأي متداول ، وفي المستقبل ، عندما يصبح تدريب الشبكات العصبية على الأنماط السلوكية لشخص معين هو القاعدة ، فسيكون قادرًا على التبادل التجاري لشخص بنفس الطريقة التي سيحققها بنفسه - فقط بشكل أفضل و 24 ساعة في اليوم.
في وقت قريب جدًا ، ستحصل هذه الأنظمة على معلومات كافية لتحسين مجالات مسؤوليتها ، وستبدأ حياتنا في التغير بشكل كبير في العديد من الجوانب. ليس من المنطقي تخزين البضائع المعلبة والمباريات ، ولكن ليس جميع الخبراء متأكدين من أن الشبكات العصبية مضمونة لتكون آمنة ، لأن المشاكل الخطيرة للغاية في قابلية تفسير الذكاء الاصطناعي قد بدأت بالفعل.
5. تفسير منظمة العفو الدولية
في السنوات الأخيرة ، تم استثمار أموال ضخمة في البحث وتطوير الشبكات العصبية ، لذلك ليس من المستغرب أن يكون قد تم إحراز تقدم هائل. ومع ذلك ، كان هو الذي خلق المشكلة ، التي لم تعد تعتبر الآن الكثير من الجناح الهامشي (إذا جاز التعبير) للمجتمع العلمي وطرح للمناقشة: مشكلة التفسير من الذكاء الاصطناعى.
من الناحية التقريبية ، حتى المتخصصين في العديد من الحالات إما لا يفهمون جيدًا أو لا يفهمون مطلقًا كيف تعالج الشبكات العصبية المفيدة وظيفيًا البيانات وتنتج نتائج. غالبًا ما تتحول منظمة العفو الدولية إلى صندوق أسود ، وبعض الشركات (نفس جوجل ، على سبيل المثال ، التي تتحدث عن خطورة هذه المشكلة الشديدة) تجري حاليًا أبحاثًا ، والغرض الوحيد منها هو فهم حقيقة واحدة بسيطة: كم هي آمنة مواصلة تطوير الذكاء الاصطناعى وإدخاله في الحياة الحقيقية؟ هناك مقابلة ممتازة حول هذا الموضوع مع Bin Kim ، باحثة في Google Brain ، إنها تتعامل فقط مع هذه المشكلة ، وبناءً على ما تقوله ، فإن هي وزملاؤها ليس لديهم ثقة كبيرة في أن منظمة العفو الدولية آمنة بكل تأكيد.
6. أخلاقيات الذكاء الاصطناعى
حسنًا ، وفي الواقع ، ما سبق ذكره مفهوم جيدًا من قِبل المتخصصين المعنيين بالذكاء الاصطناعي ، لذا اعتنى الجميع فجأةً والإجماع بـ "أخلاقيات الذكاء الاصطناعي" ، أي كيفية التأكد من أن هذا الشيء غير المفهوم لا يبدأ فجأة في أداء بعض الأشياء الكوابيسية بشكل مفاجئ. . ومع ذلك ، حتى الآن ، على ما يبدو ، بصرف النظر عن اعتراف اللاعبين الرئيسيين في هذه الصناعة بنعم ، من الضروري تطوير وتنفيذ نوع من الأخلاق والأخلاق الخاصة للشبكات العصبية ، فإن الأمور لم تتزحزح.
بشكل عام ، حان الوقت لإعادة قراءة Azimov.