سوف يقوم مطورو OpenAI بتدريب الذكاء الاصطناعي مع Reddit
الرئيس التنفيذي لشركة Nvidia Jen-San Huang يُظهر DGX-1 لـ Ilon Mask ، المؤسس المشارك لـ OpenAI OpenAI ، وهيمنظمة غير ربحية مفتوحة المصدر تعمل في مجال البحث في مجال الذكاء الاصطناعي ، وتلقى كمبيوتر عملاق DGX-1 من Nvidia. يعمل خبراء OpenAI حاليًا على شكل "ضعيف" للذكاء الاصطناعي. يقوم العلماء بتطوير أنظمة يمكنها معالجة كمية كبيرة من البيانات الأولية ، مما ينتج عنه مجموعة منظمة من المعلومات. هذا يتطلب أجهزة كمبيوتر قوية ، و DGX-1 هو مجمع حوسبة قوي للغاية. تدعي Nvidia أن DGX-1 مبني على جيل جديد من وحدات معالجة الرسومات التي توفر سرعات معالجة بيانات مماثلة لخوادم معمارية 250 x86.مبدعو OpenAI هم Elon Musk و Sam Altman. تتمثل الأهداف الرئيسية للمنظمة في جذب العلماء العاملين في مجال الذكاء الاصطناعي للتعاون. من المقرر أن تكون نتائج البحث مفتوحة ومتاحة لجميع القادمين. ووفقًا للمؤسسين ، فإن كل ذلك سيساعد على منع ظهور الذكاء الاصطناعي "الشرير". وقد ذكر المسك هذا التهديد عدة مرات.وضع DGX-1 كما وضع أول حاسب عملاق في العالم للتعلم عميق مع القدرة الحاسوبية كافية لتطوير AI. باستخدام هذا الكمبيوتر العملاق ، سيتمكن باحثو OpenAI من تعلم الشكل الضعيف للذكاء الاصطناعي بشكل أسرع بكثير من الخوادم التقليدية. في المرحلة الأولى ، سيتم تعليم الذكاء الاصطناعي لفهم التواصل النصي للأشخاص. كنز من العقل في هذه الحالة سيكون بمثابة Reddit. ستقوم رسائل المورد "بتغذية" الذكاء الاصطناعي ، وسيتعلم فهم العلاقة بين الكلمات الفردية ومجموعاتها وجملها. المهمة معقدة بحقيقة أن النص مع Reddita مشبع بلغة مختصرة ، اختصارات ، هذه ليست نصوصًا أكاديمية.يقول أندريه كارباثي ، باحث في OpenAI ، أن الذكاء الاصطناعي للتعلم الذاتي سيصبح أكثر ذكاءً بمرور الوقت. "التعلم العميق هو فئة خاصة من النماذج ، لأنه كلما كبر النموذج نفسه ، كان يعمل بشكل أفضل" ، كما يقول.تظل اللغة مشكلة مهمة لمطوري الذكاء الاصطناعي. وعلى الرغم من أن العديد من المشاكل قد تم حلها ، إلا أنه لا يزال هناك المزيد من الحل. منذ وقت ليس ببعيد ، أجرت Google تجربة عندما تم تدريب نظام التعلم الذاتي باستخدام مربعات الحوار من الأفلام. بعد مرور بعض الوقت ، اتضح أن الذكاء الاصطناعي يعطي إجابات مقبولة تمامًا على الأسئلة المعقدة نسبيًا. في بعض الأحيان ، تؤدي محاولة تقريب الشكل الضعيف للذكاء الاصطناعي والأشخاص إلى نتائج غير متوقعة. في مارس من هذا العام ، أطلقت مايكروسوفتوعلى تويتر ، روبوت المراهق تاي ، وتعلم سيئة في يوم واحد فقط. بعد ذلك ، اعتبر موظفو Microsoft أنه من الأفضل حذف جميع رسائل Tay تقريبًا وإرساله إلى النوم.يريد علماء OpenAI فهم ما إذا كان الروبوت قادرًا على تعلم اللغة من خلال التفاعل مع الناس في العالم الحقيقي. التجربة مع Reddit هي الخطوة الأولى في سلسلة التجارب المقصودة. بفضل DGX-1 ، سيكون التدريب أسرع بكثير من المخطط له. يمكن تدريب الذكاء الاصطناعي على مثال صفائف البيانات الأكبر من المخطط لها. بالإضافة إلى النص ، سيتم تدريب الذكاء الاصطناعي عن طريق التجربة والخطأ لأداء عدد من الإجراءات. يمكن استخدام هذه الطريقة لتعليم الذكاء الاصطناعي للعب ألعاب الفيديو. ربما سيكون قادرًا على فهم أن تراكم العملات المعدنية في عدد من الألعاب يسمح لك بزيادة عدد النقاط المكتسبة وتحسين قدرات الشخصية.
لماذا كل هذا ضروري؟ من الناحية العملية ، يمكن استخدام شكل ضعيف من الذكاء الاصطناعي في العديد من المجالات. على سبيل المثال ، قم بإنشاء روبوت قادر على القيام بالأعمال المنزلية. وسيعمل مثل هذا الروبوت بشكل أفضل وأفضل بمرور الوقت ، لأنه قادر على التعلم. هناك حاجة أيضًا إلى شكل ضعيف من الذكاء الاصطناعي لتحسين أداء السيارات ذاتية القيادة التي يتم تطويرها حاليًا من قبل عدد من الشركات ، بما في ذلك Google. أما بالنسبة للشكل القوي للذكاء الاصطناعي ، فمن الجدير بالخوف أنه لم يبدأ في استخدام الناس لأغراضه الخاصة ، كما ذكر المسك مرارًا وتكرارًا.يشكك عدد من الباحثين في جدوى مهمة OpenAI لخلق ذكاء اصطناعي "جيد". وفقًا لممثلي المنظمة نفسها ، فإن خطر إنشاء ذكاء اصطناعي ضار يقابله حقيقة أن التقنيات ونتائج التنمية متاحة للجميع. في الوقت نفسه ، يعتقد نيك بوستروم ، وهو عالم من أكسفورد ، أن الانفتاح هو الذي يمكن أن يؤدي إلى نتائج سلبية. يقول بوستروم أن مشاركة الجميع بنتائج البحث مع الجميع يمكن أن تكون مشكلة. يقول بوستروم: "إذا كان لديك زر" جعل الجميع يشعرون بالسوء "، فمن غير المحتمل أن ترغب في مشاركته مع الجميع". ولكن في حالة OpenAI ، سيكون هذا الزر متاحًا للجميع. إذا كانت المنظمة تخفي نتائج عملها ، والتي تعتبرها خطرة ، فإن وجود OpenAI سيفقد معناه ، لأن المنظمة لن تكون مفتوحة بعد الآن.ومع ذلك ، يعتقد بوستروم أنه يجب أن تكون هناك نتائج إيجابية. والنتيجة الرئيسية هي انخفاض احتمالية التحكم في الذكاء الفائق للشركة في حالة وجود شكل قوي من الذكاء الاصطناعي. إن احتكار شكل قوي من الذكاء الاصطناعي أمر سيئ ، ومن المرجح أن يقلل OpenAI من احتمال حدوث مثل هذا التطور للأحداث.Source: https://habr.com/ru/post/ar396947/
All Articles