مشروع FlyAI: الذكاء الاصطناعي يمكّن الذباب المستعمر



في الشهر الماضي ، تعتمد حياة مستعمرة الذباب الواقعة في مدينة دولوث ، مينيسوتا ، الولايات المتحدة الأمريكية ، بشكل كامل على تشغيل البرنامج. هذا شكل ضعيف من التعلم الذاتي للذكاء الاصطناعي ، والذي يضمن تمامًا وبشكل كامل حياة الحشرات داخل وعاء خاص. على وجه الخصوص ، يوفر AI الذباب مع الطعام (مسحوق الحليب مع السكر) والماء.

تعتمد حياة الحشرات على كيفية تعريف الكمبيوتر بشكل صحيح للكائن الموجود أمام الكاميرات. إذا حدد النظام هذا الكائن على أنه ذبابة وقرر أن الحشرات تحتاج إلى إعادة شحن ، فسوف تستلمها. في حالة حدوث خطأ ، لن يتلقى الذباب الطعام والماء وسيعاني (قدر الإمكان للذباب) من الجوع والعطش لفترة طويلة. أطلق على المشروع نفسه اسم FlyAI ، وهو نوع من المحاكاة الساخرة لتسوية الناس التي تسيطر عليها الكمبيوتر. على أي حال ، هذه هي الطريقة التي يرى بها مؤلف المشروع كل شيء.

"يجب أن نقدم على بينة من حقيقة، ما الذي يمكن توقعه من الذكاء الاصطناعي، لأنه في أي حال سيكون"، - قال ديفيد بوين ( ديفيد بوين ) من جامعة مينيسوتا في دولوث. يعتقد أنه من الضروري الآن التفكير في ما سيكون ذكاء اصطناعي حقيقي ، حتى لا تكون هناك مشاكل لاحقًا. وفقًا للأستاذ ، سيتمكن الناس ، على الرغم من المشاكل ، من جعل الذكاء الاصطناعي مفيدًا للشخص ولن يضره.


عنصر مركزي لمشروع FlyAI هو شبكة عصبية ذاتية التعلم. من الواضح أنه ، مثل معظم أنظمة الذكاء الاصطناعي الحديثة ، هذا ليس مشروعًا مثاليًا. FlyAI تفتقر إلى قاعدة بيانات صورة للتعلم الفعال. لذلك ، يخطئ النظام بشكل دوري من خلال تحديد الذباب كمفاتيح أو كائنات أخرى. في حالة التعرّف بشكل غير صحيح ، لا "يبدأ" الكمبيوتر نظام دعم الحياة ، والذباب يجوع ويعاني من العطش ، كما ذكر أعلاه. ولكن على أي حال ، بينما تعيش المستعمرة ، فقد مر شهر وشعر الذباب بالراحة. إذا حدث خطأ ما تمامًا ، فإن مصمم النظام سيحفظ الحشرات من خلال عدم السماح بموتها الجماعي. يقول بوين: "إنهم يموتون لأسباب طبيعية". "إنهم يحصلون على فرصة ليكبروا في السن هنا."

وقال إن المشروع هو تجسيد منمق لأفكار أخصائي الذكاء الاصطناعي نيك بوستروم ، الذي يعمل في أكسفورد. يعتقد بوستروم أن انفتاح البحث من قبل المتخصصين العاملين على إنشاء الذكاء الاصطناعي يمكن أن يكون مشكلة. على وجه الخصوص ، يتعلق هذا بمشروع AI المفتوح ، الذي تم نشر معلومات حول Geektimes. يقول بوستروم: "إذا كان لديك زر" جعل الجميع يشعرون بالسوء "، فمن غير المحتمل أن ترغب في مشاركته مع الجميع". ولكن في حالة OpenAI ، سيكون هذا الزر متاحًا للجميع.



ومع ذلك ، يعتقد بوستروم أن الذكاء الاصطناعي يجب أن يكون نعمة للبشر. بالنسبة لنا ، من المهم إنشاء ذكاء اصطناعي ، وهو ذكي بما يكفي للتعلم من أخطائنا. سيكون قادراً على إتقان نفسه إلى ما لا نهاية. سيكون الإصدار الأول قادرًا على إنشاء نسخة ثانية ، والتي ستكون أفضل ، والثانية ، كونها أذكى من النسخة الأصلية ، ستخلق ثلثًا أكثر تقدمًا وما إلى ذلك. في ظروف معينة، هذه عملية تحسين الذات يمكن أن تتكرر حتى، حتى تصل إلى انفجار الفكري - لحظة المستوى الفكري للنظام سيقفز في وقت قصير مع مستوى متواضع نسبيا إلى super-الاستخبارات "، - وقال انه.

ويجادل بوين بأن الخطر على البشرية ليس الإمكانيات غير المحدودة للشكل القوي المستقبلي للذكاء الاصطناعي ، ولكن البرنامج الذي ستعتمد عليه حياة الإنسان (في هذا لا يشك فيه). يقول بوين: "إحدى المشاكل هي أننا لا نفهم تمامًا ما هو الذكاء الاصطناعي". "وتبدو مخيفة."

بالطبع ، سيكون شكل قوي من الذكاء الاصطناعي مختلفًا تمامًا عن محركات البحث الصوتي الحديثة والمساعدات الرقمية. من المحتمل أن تكون إمكانيات الذكاء الاصطناعي واسعة ، ولكن هناك مخاطر. يعتقد نفس ستيفن هوكينج أن الذكاء الاصطناعي هو أكبر خطأ للبشرية. يدعي بيل غيتس أنه في غضون عقود قليلة ، سيتم تطوير الذكاء الاصطناعي بالفعل بما فيه الكفاية ليشكل سببًا للقلق البشري. ووصف إيلون ماسك منظمة العفو الدولية بأنها "التهديد الرئيسي لوجود الإنسان".


غالبًا ما ترتكب منصة البرامج ، وهي مركز FlyAI ، خطأً

بالطبع ، قد يبدو المشروع نفسه سخيفًا بعض الشيء ، لكن مؤلفه لا يعتقد ذلك. في الواقع ، كل ما أراده هو لفت انتباه الجمهور إلى مشروعه ومشكلة الذكاء الاصطناعي. يمكننا القول أنه نجح. على أي حال ، لا نعرف حتى الآن متى سيظهر الذكاء الاصطناعي الكامل ، وما إذا كان سيظهر على الإطلاق. يمكن أن يحدث هذا غدًا ، أو ربما في غضون بضعة عقود. من أجل أن تكون آمنًا للبشر ، يجب أن يكون الذكاء الآلي مدركًا لقيمة الحياة البشرية. لكن الإنسان ليس ذبابة.

Source: https://habr.com/ru/post/ar400045/


All Articles