يعتقد رئيس Google أن الخوف من الذكاء الاصطناعي "مبرر تمامًا"



قال سوندار بيشاي ، الرئيس التنفيذي لشركة Google ، إحدى أكبر الشركات العاملة في مجال الذكاء الاصطناعي ، في مقابلة أجريت هذا الأسبوع إن المخاوف من الاستخدام الضار للتكنولوجيا "لها ما يبررها تمامًا" - ومع ذلك ، يجب أن نثق في صناعة التكنولوجيا من حيث قدرتها على كل المسؤولية لتنظيم استخدامها.

في محادثة مع واشنطن بوست ، قال بيكاي إن أدوات الذكاء الاصطناعى الجديدة - أساس الابتكارات مثل السيارات الآلية وخوارزميات التعرف على الأمراض - تتطلب من الشركات تحديد إطار أخلاقي والنظر بعناية في كيفية إساءة استخدام هذه التكنولوجيا.

قال بيشاي: "أعتقد أنه يجب أن تفهم أعمال التكنولوجيا أنه لا يمكنك إنشائها أولاً ثم إصلاحها". "أعتقد أنه لن ينجح."

وقال بيتشاي إن العمالقة التكنولوجيين يجب أن يضمنوا أن الذكاء الاصطناعي "بأهدافه" لا يضر بالإنسانية. وقال إنه متفائل بشأن الفوائد الطويلة الأجل للتكنولوجيا ، لكن تقييمه للمخاطر المحتملة لمنظمة العفو الدولية يتفق مع بعض منتقدي التكنولوجيا الذين يزعمون أنه يمكن استخدام التكنولوجيا لإدخال المراقبة الغازية ، وصنع أسلحة فتاكة ، ونشر المعلومات الخاطئة. توصل مدراء شركات التكنولوجيا الأخرى ، مثل مؤسس SpaceX و Tesla ، Elon Musk ، إلى توقعات أكثر جرأة بأن الذكاء الاصطناعي قد يكون "أكثر خطورة من القنابل النووية".

تمثل تقنية الذكاء الاصطناعي من Google جوهر كل شيء من مشروع شركة صينية مثيرة للجدل إلى نظريات البغيضة والتآمر على موقع يوتيوب ، أحد أقسام الشركة. وعد Pichai لحل هذه المشكلة في العام المقبل. إن الطريقة التي تقرر بها Google استخدام الذكاء الاصطناعى قد أحدثت اضطرابات حديثة بين موظفي الشركة.

جاءت دعوة Pichai للتنظيم الذاتي بعد خطابه في الكونغرس ، حيث هدد المشرعون بتقييد استخدام التكنولوجيا استجابة لإساءة استخدامها ، بما في ذلك كوسيلة لنشر المعلومات الخاطئة وخطاب الكراهية [خطاب الكراهية]. كان اعترافه بوجود تهديدات محتملة من جانب منظمة العفو الدولية أمرًا بالغ الأهمية ، لأن هذا المبرمج ، المولود في الهند سابقًا ، غالبًا ما كان يشرح كيف أن عواقب إدخال أنظمة آلية قادرة على التعلم واتخاذ القرارات دون إشراف بشري ستغير العالم.

وقال Pichai في مقابلة أن المشرعين في جميع أنحاء العالم لا يزالون يحاولون إدراك تأثير الذكاء الاصطناعي والحاجة المحتملة لتنظيم الدولة. وقال "في بعض الأحيان يزعجني أن يستخف الناس بحجم التغييرات التي يمكن أن تحدث على المدى القصير والمتوسط ​​، وأعتقد أن هذه القضايا معقدة للغاية في الواقع". تبنت شركات التكنولوجيا العملاقة الأخرى ، بما في ذلك مايكروسوفت ، لائحة منظمة العفو الدولية ، سواء من الشركات التي ابتكرت هذه التكنولوجيا ومن الحكومات التي تشرف على استخدامها.

ومع ذلك ، من خلال المعالجة المناسبة ، يمكن أن توفر الذكاء الاصطناعي "فوائد هائلة" ، كما أوضح بيكاي ، بما في ذلك مساعدة الأطباء على التعرف على أمراض العين وغيرها من الأمراض عن طريق المسح التلقائي للسجلات الطبية. وقال "إن تنظيم التكنولوجيا في مرحلة مبكرة من التطوير أمر صعب ، لكنني أعتقد أنه يجب على الشركات الانخراط في التنظيم الذاتي". - لذلك ، نحن نحاول بنشاط التعبير عن مجموعة مبادئ الذكاء الاصطناعى. ربما لم نفعل كل شيء بشكل صحيح ، لكننا اعتقدنا أنه من المهم أن نبدأ هذا الحوار ".

قام Pichai ، الذي انضم إلى Google في عام 2004 ، وبعد توليه منصب الرئيس التنفيذي ، بالاتصال بـ AI "أحد أهم الأمور التي تعمل عليها البشرية" في يناير وقال إنه قد يكون "أكثر أهمية" للإنسانية من "الكهرباء أو الكهرباء". النار ". ومع ذلك ، فإن سباق تحسين الآلات التي يمكن أن تعمل من تلقاء نفسها قد أثار مخاوف مألوفة من أن روح شركة Silicon Valley - "افعلها بسرعة ، وألحقت الضرر" ، كما وصفها موقع Facebook مرة واحدة - يمكن أن تؤدي إلى تقنية قوية وغير كاملة تلغي الوظائف وتضر بالأذى للناس.

في Google نفسها ، تعد محاولات إنشاء الذكاء الاصطناعي مثيرة للجدل أيضًا: واجهت الشركة موجة من الانتقادات هذا العام بسبب العمل على عقد مع وزارة الدفاع ، والتي بموجبها سيتم استخدام الذكاء الاصطناعي ، والقادر تلقائيًا على تمييز السيارات والمباني والأشياء الأخرى ، في الطائرات العسكرية بلا طيار. حتى أن بعض الموظفين استقالوا ، واصفين السبب في ذلك أرباح الشركة في "الأعمال العسكرية".

رداً على أسئلة حول رد فعل الموظفين هذا ، أخبر Pichai الصحيفة أن هؤلاء العمال كانوا "جزءًا مهمًا من ثقافتنا. لديهم الفرصة ليقولوا كلمتهم ، وهذا أمر مهم للشركة ، وهذا هو ما نقدره ".

في يونيو ، بعد الإعلان ، حيث قالت الشركة إنها لن تجدد هذا العقد ، كشفت Pichai عن مجموعة من المبادئ الأخلاقية عند إنشاء الذكاء الاصطناعى ، والتي تضمنت فرض حظر على تطوير أنظمة يمكن استخدامها للتسبب في ضرر أو انتهاك حقوق الإنسان أو المساعدة في مراقبة الناس. " في انتهاك للمعايير المقبولة دوليا ".

تم انتقاد الشركة لإطلاقها أدوات الاستخدام العام التي يمكن استخدامها على حساب المستخدم العام. ساعدت حزمة برامج TensorFlow ، التي تم إصدارها في عام 2015 ، وهي نظام Google للتعلم الآلي الداخلي ، على تسريع عملية التطوير الهائلة لـ AI ، ولكنها كانت تستخدم في إنشاء مقاطع فيديو مزيفة ، والتي كانت تستخدم بعد ذلك في التضليل والمضايقة.

دافعت Google و Pichai شخصيًا عن الإصدار قائلة إن الحد من انتشار التكنولوجيا سيعني أن الجمهور لن يتحكم فيه بعناية كافية ، وأن المطورين والباحثين لم يتمكنوا من تحسين قدراته حتى يفيدها.

"أعتقد أنه بمرور الوقت ، وتطوير التكنولوجيا بنجاح ، من المهم مناقشة القضايا الأخلاقية والتحيزات المعرفية ، وتطويرها في نفس الوقت" ، قال Pichai في مقابلة.

"بمعنى ما ، نريد تطوير منصة أخلاقية ، لجذب العلماء ليس من مجال علوم الكمبيوتر في مرحلة مبكرة من التطور" ، قال. "من الضروري إشراك البشرية بشكل أكثر نشاطًا ، لأن هذه التكنولوجيا ستؤثر على البشرية".

قارن Pichai بين المحاولات المبكرة لوضع معايير الذكاء الاصطناعي وجهود المجتمع العلمي للحد من البحث الجيني في المراحل المبكرة من هذا المجال. وقال "لقد بدأ العديد من علماء الأحياء في التمييز بين المجالات التي يجب أن تتطور فيها التكنولوجيا". "لقد تبنى المجتمع الأكاديمي التنظيم الذاتي النشط ، والذي يبدو لي أنه مهم للغاية".

قال مدير Google إن مثل هذا النهج سيكون ضروريًا تمامًا في تطوير أسلحة مستقلة - وهذه المشكلة تعذب مدراء وموظفي شركات التكنولوجيا. في يوليو ، وقع الآلاف من عمال الصناعة الذين يمثلون شركات مثل Google عريضة لحظر أدوات الذكاء الاصطناعي التي يمكن برمجتها لقتلها.

قال Pichai إنه اعتبر أن نظريات المؤامرة التي يكرهها YouTube والتي تم وصفها في مقالة WP "مقزز" ، وأوضح أن الشركة ستعمل على تحسين الأنظمة التي تتعرف على المحتوى الإشكالي. في مقاطع الفيديو هذه ، التي تجاوزت مرات المشاهدة الإجمالية لها عدة ملايين من المرات منذ ظهورها في أبريل ، ناقشوا الاتهامات التي لا أساس لها لهيلاري كلينتون ومساعدتها الطويلة ، هي هي عابدين ، بأنهم هاجموا الفتاة وقتلوها وشربوها بدمها.

قال Pichai إنه لا يرى مقاطع الفيديو هذه التي طُرح عليها أسئلة في الكونغرس ، ورفض الإبلاغ عما إذا كانت عيوب YouTube هذه هي نتيجة لقيود على الأنظمة التي تتعرف على محتوى غير مناسب أو قواعد لتقييم الحاجة إلى إزالة مقاطع الفيديو. لكنه أضاف أنه "في عام 2019 سترى المزيد من العمل في هذا المجال من جانبنا."

ووصف Pichai أيضًا محاولات Google لتطوير منتج جديد في قطاع الإنترنت الخاضع للسيطرة الصينية بأنه أولي ، ولم يوضح نوع المنتج الذي قد يكون عليه ومتى يمكن أن يصل إلى السوق ، على الإطلاق.

يطلق عليه اسم "مشروع اليعسوب" ، وأثار رد فعل قوي من الموظفين ونشطاء حقوق الإنسان يحذرون من مساعدة جوجل المحتملة في المراقبة الحكومية للمواطنين الذين لا يسمون بالمنشقين السياسيين. ورداً على سؤال حول إمكانية قيام Google بإنشاء منتج يسمح للمسؤولين الصينيين بمعرفة متى يبحث الشخص عن بعض الكلمات الحساسة ، مثل " مذبحة ميدان تيانانمن " ، قال بيتشاي إنه من المبكر جدًا إصدار مثل هذه الأحكام.

"هذه كلها اعتبارات افتراضية" ، قال Pichai. "نحن بعيدون بشكل رهيب عن هذه الحالة".

Source: https://habr.com/ru/post/ar433236/


All Articles