تم إنشاء الذكاء الاصطناعي لاتخاذ القرارات التنظيمية والإدارة العامة. يقول جوني بن من جامعة كامبريدج إنه يحتاج إلى أخلاقيات إنسانيةالذكاء الاصطناعي (الذكاء الاصطناعي) موجود في كل مكان ، لكنه لم يخترع بالكامل بطريقة تاريخية. لفهم تأثير الذكاء الاصطناعي على حياتنا ، من المهم تقييم البيئة التي تم إنشاؤها فيها. في النهاية ، تطورت الإحصاءات وسيطرة الدولة يداً بيد لمئات السنين.
النظر في علوم الكمبيوتر. يمكن تتبع أصلها ليس فقط من خلال الفلسفة التحليلية والرياضيات البحتة وألان تورينج ، ولكن أيضًا من المستغرب ، من خلال تاريخ الإدارة العامة. في عام 2003 ، The Government Machine: The Computer ثوري ، قام جون آجار من جامعة يونيفرسيتي كوليدج بلندن بتطوير الخدمة المدنية البريطانية حيث نما من 16000 موظف في 1797 إلى 460،000 بحلول عام 1999. لقد لاحظ وجود تشابه غير طبيعي بين وظيفة البيروقراطية البشرية والكمبيوتر الإلكتروني. (اعترف بأنه لا يستطيع القول ما إذا كانت هذه الملاحظة تافهة أو عميقة).
قام كلا النظامين بمعالجة كمية كبيرة من المعلومات باستخدام تسلسل هرمي للقواعد المحددة مسبقًا ، ولكن القابلة للتكيف. لكن أحدهم جاء من الآخر. أظهر ذلك وجود صلة مهمة بين تنظيم الهياكل الاجتماعية للأشخاص والأدوات الرقمية المصممة لخدمتهم. يربط السيد أجار أصل علم الكمبيوتر مع محرك تشارلز باباج التحليلي ، الذي تم تطويره في بريطانيا في عشرينيات القرن التاسع عشر. تم دعم تطويره من قبل الحكومة ، مما يشير إلى أنه سيكون راعياً لها. يلاحظ السيد أغار أن مشاريع باباج ينبغي اعتبارها "تجسيدًا لنشاط الدولة".
هذه العلاقة بين أنظمة الحوسبة والهياكل التنظيمية البشرية تكرر تاريخ الذكاء الاصطناعي. في ثلاثينيات وأربعينيات القرن العشرين ، قرر هربرت سيمون (في الصورة أدناه) ، وهو عالم سياسي من جامعة شيكاغو قام بالتدريس لاحقًا في جامعة كارنيجي ميلون ، تطوير نهج "علمي" لتأسيس الهيكل الإداري. كان سيمون قد درس سابقًا تحت قيادة رودولف كارناب ، وهو عضو في دائرة فيينا للوضعية المنطقية. أكد هذا اعتقاده أن النظريات الموجودة تفتقر إلى التجريبية. أصبحت أطروحته الدكتوراه في عام 1947 كتاب "السلوك الإداري" ، والذي كان بمثابة الأساس الذي يمكن من خلاله فهم جميع الأنشطة في المنظمة باستخدام مصفوفة القرار.
يقول سيمونلقد قدم مساهمة كبيرة في العديد من المجالات العلمية ، ليس فقط في العلوم السياسية والاقتصادية ، ولكن أيضًا في علوم الكمبيوتر والذكاء الاصطناعي. لقد صاغ مصطلح "satisficing" (لقبول ما هو مرغوب فيه ، بدلاً من السعي لتحقيق الأفضل) وطور فكرة "العقلانية المحدودة" ، والتي حصل على جائزة نوبل في الاقتصاد عام 1978. لكن في الخمسينيات من القرن الماضي ، كان سيمون مستشارًا في مؤسسة RAND ، وهي مؤسسة بحثية مؤثرة تدعمها القوات الجوية الأمريكية.
في راند ، حاول سيمون وزملاؤه: عالم الرياضيات الشاب آلان نيويل وخبير التأمين السابق جيه كليفورد شو ، صياغة نموذج للمشاكل الإنسانية من حيث كيفية إجراء الكمبيوتر لعملية محددة. لهذا ، استعار سيمون عناصر من النظام الذي طوره في السلوك الإداري من أجل تعليم الكمبيوتر أن "يفكر" مثل الشخص ، وجعله سيمون يفكر مثل مجموعة من الناس.
كان نتاج عمل ثلاثة علماء عبارة عن آلة افتراضية ، تسمى "The Logical Theorist" ، تسمى أول نموذج أولي للذكاء الاصطناعي. إن المطبوعات الخاصة بمنظري العمل خلال مشروع البحث الصيفي لعام 1956 في دارتموث ، دفعتنا إلى الاهتمام بالذكاء الاصطناعي ، الذي أعطى الاسم ووضع الأساس لكامل المجال العلمي. في ملاحظات من مؤتمر في دارتموث ، كتب أحد المشاركين أن Theorist ساعد في التغلب على الخوف من تمويل هذا المجال من البحث. كان هذا مهمًا لأن صندوق تمويل الذكاء الاصطناعي كان يشك في أن هذا المجال من البحث كان مفيدًا.
كيف رأى سيمون إنجازاته العلمية؟ بعد مرور عام على مؤتمر دارتموث ، قدم هو ونويل نتائجها في المنشور المعنون "حل المشكلات الكشفية: الحركة التالية في بحوث العمليات". ظهر التعبير الرئيسي في العنوان: "بحوث العمليات" في المملكة المتحدة خلال الحرب العالمية الثانية لتطبيق المبادئ والإحصاءات العلمية لتحسين العمليات العسكرية ، ثم لأغراض الشركات. كان الذكاء الاصطناعي لرجال الأعمال.
في خطاب ألقاه لممارسي الباحثين التنفيذيين في لندن في عام 1957 ، لاحظ سايمون فريدريك تايلور ، والد حركة الإدارة العلمية ، وتشارلز باباج ، أسلافه العقليين. وقال سايمون: "لا علاقة للفيزيائيين والمهندسين الكهربائيين باختراع جهاز كمبيوتر رقمي". المخترع الحقيقي ، في رأيه ، هو الاقتصادي آدم سميث. وأوضح هذه العلاقة: المهندس المدني الفرنسي Gaspard de Prony يهدف إلى إنشاء لوغاريتمات باستخدام طرق تم إنشاؤها من Smith's Wealth of Nations. قام باباج ، المستوحى من بروني ، بتطبيق هذا التخمين على المعدات الميكانيكية. في منتصف الخمسينيات ، حولها سيمون إلى رمز البرنامج.
التقليد يعيش على. إن العديد من أنظمة الذكاء الاصطناعي الحديثة لا تقلد التفكير البشري بقدر تفكير العقول الأقل موهبة في المؤسسات البيروقراطية ؛ غالبًا ما تتم برمجة أساليب التعلم الآلي الخاصة بنا لتحقيق أبعاد خارقة وسرعة ودقة من خلال الهوية أو الطموح أو الأخلاق على المستوى الإنساني.
الرأسمالية في الكودلم يتم الحفاظ على هذه السطور من تاريخ الذكاء الاصطناعي: صنع القرار في الشركات ، وسلطة الدولة واستخدام الإحصاءات في الحرب - في فهم الذكاء الاصطناعي الذي كان في متناول الناس.
بدلاً من ذلك ، فإن الأخبار المتعلقة بالاختراقات التقنية أو الخبراء الذين يعبرون عن مخاوفهم تكون مصحوبة بصور ، إن لم تكن في شكل جهاز إنهاء مسلح جيدًا ، ثم بواسطة العقل أو الروبوت أو شرائح النيون أو المعادلات الرياضية السخيفة. ليس كل منهم تأكيدًا قويًا لسلطة العلوم الطبيعية أو علوم الكمبيوتر فيما يتعلق ، على سبيل المثال ، بالعلوم "اللينة" أو استعارة مصطلحات سيمون أو العلوم السياسية أو الإدارة أو حتى الاقتصاد ، أي المناطق التي ذهب إلى ستوكهولم لتلقي جائزة نوبل.
ربما كنتيجة لهذا الانطباع الخاطئ ، يستمر النقاش العام حتى يومنا هذا حول الفوائد التي يمكن أن تقدمها العلوم الاجتماعية ، إن وجدت ، لدراسة الذكاء الاصطناعي. وفقا لسيمون ، ولد الذكاء الاصطناعي نفسه في العلوم الاجتماعية.
دافع ديفيد رانسيمان ، العالم السياسي بجامعة كامبريدج ، عن أنه من أجل فهم الذكاء الاصطناعي ، يجب علينا أولاً أن نفهم كيف يعمل في النظام الرأسمالي الذي يتم تضمينه فيه. "الشركات هي شكل آخر من أشكال التفكير المصطنع ، فهي مصممة لتكون قادرة على اتخاذ القرارات من تلقاء نفسها ،" ويوضح.
يقول السيد رانسيمان: "إن العديد من المخاوف التي يواجهها الناس الآن بشأن الحقبة القادمة من الروبوتات الذكية هي نفسها التي واجهوها بشأن جمعيات الشركات لعدة مئات من السنين". القلق هو أننا "لن نكون قادرين على تعلم التحكم في هذه الأنظمة".
على سبيل المثال ، بعد تسرب النفط في عام 2010 ، عندما توفي 11 شخصًا ودمر خليج المكسيك ، لم يذهب أحد إلى السجن. إن التهديد الذي يحذر السيد رانسيمان من أن أساليب الذكاء الاصطناعي ، مثل التكتيكات للتهرب من المسؤولية العامة ، سوف تستخدم دون عقاب.
اليوم ، يُظهر الباحثون الرائدون مثل جوليا أنغوين وفيرجينيا إيوبانكز وكاتي أونيل كيف تعزز النظم الخوارزمية المختلفة العنف وتدمير الكرامة الإنسانية وتقوض الآليات الديمقراطية الأساسية ، مثل المساءلة ، إذا تم إنشاؤها بطريقة غير مسؤولة. يجب ألا يكون الضرر مقصودًا ؛ مجموعات البيانات المتحيزة المستخدمة لتدريب النماذج التنبؤية هي أيضًا ضارة. بالنظر إلى العمالة الباهظة اللازمة لتحديد الضرر الذي تم إلغاؤه والقضاء عليه ، من الضروري إنشاء شيء يشبه "الخدمة الأخلاقية" التي تم إنشاؤها كصناعة منفصلة. قامت السيدة أونيل ، على سبيل المثال ، بإطلاق خدمة فحص الخوارزميات الخاصة بها.
في الخمسينيات من القرن العشرين ، كتب جون مكارثي ، أحد أوائل رواد هذا المجال ، الذي صاغ مصطلح "الذكاء الاصطناعي" لعقد مؤتمر في دارتموث: "بمجرد برمجة نظام معرفي واحد ويعمل ، لن يتم أخذ أي شيء آخر على محمل الجد ، بالإضافة إلى إدارة البرامج الذكية ". لهذا السبب ، فإن الشعار الأولي لـ DeepMind "تعرف على العقل. استخدمه لمعرفة كل شيء آخر ، "يبدو إمبراطوريًا تقريبًا.
كان اقتراح مكارثي هو أن التأثير ، وليس السلطة ، يمكن أن يحل الإجماع العلمي في مجاله. DeepMind لا يحتاج إلى "معرفة" الفكر (شريطة أن يكون هذا ممكنًا) فهو يحتاج فقط لهزيمة المنافسة. هذا الشعار الجديد للشركة: "اعرف العقل. استخدمه لمعرفة كل شيء آخر ، "يقترح أنه يدرك أيضًا الحاجة إلى الدبلوماسية في عصر القوة الكاملة للذكاء الاصطناعي.
كشف ستيفن كايف ، مدير مركز ليفيرغولم لأبحاث المستقبل ، أن تعريف الذكاء قد استخدم عبر التاريخ كأداة للهيمنة. تحول أرسطو إلى "القانون الطبيعي" للتسلسل الهرمي الاجتماعي لشرح سبب خضوع النساء والعبيد والحيوانات للأشخاص الأذكياء. بالنظر إلى هذا الإرث الوحشي ، ينبغي لسياسات الشركات ووكالات الحوسبة أن تحل المشكلات المعقدة التي تشكلها الجنس والنشاط الجنسي والاستعمار فيما يتعلق بالصفات الشخصية الأخرى.
المسؤولية الأساسية للذكاء الاصطناعي هي أنه يوفر تصنيفًا آليًا واسع النطاق. على سبيل المثال ، يمكن استخدام التعلم الآلي لتمييز الخلد الخبيث عن الخلد الحميد. يصبح هذا "الواجب" تهديدًا عندما يهدف إلى حل مشكلات الحياة اليومية. يمكن أن تضايق الملصقات وتؤذيها عندما تدعي القوة الخاطئة. احتجاجًا على الملصقات غير العادلة التي تستخدم في "معرفة" العالم ، يتحدى العديد من الشباب اليوم بكل فخر التصنيفات غير المرغوب فيها ، سواء أكانت أزواجًا جنسانية أو جنسانية تقليدية.
الآلات التي تفكر مرة أخرىقد يكون من المستغرب بالنسبة للكثيرين أن الأسباب الاجتماعية والمادية والسياسية لأصل الذكاء الاصطناعي ليست مفهومة جيدًا. في الواقع ، لقد كتب الكثير عن تاريخ الذكاء الاصطناعي: سايمون في عام 1996 ونيويل في عام 2000. ومع ذلك ، تلتزم معظم هذه القصص ببعض القيود ، وعرضها "بشكل أساسي من الناحية الفكرية" ، وفقًا لبول إدواردز ، مؤرخ تكنولوجيا المعلومات.
كل قصة من قصتي الذكاء الاصطناعي تقريبًا هي قصة أفكار: "الآلات التي تفكر" بقلم باميلا مكوردك ، التي "صنعت قالبًا لمعظم القصص اللاحقة" بعد النشر الأول في عام 1979 ؛ والذكاء الاصطناعي: قصة مثيرة كتبها دانييل كريفير ، نشرت في عام 1993. اعتمد كلا الكتابين في المقام الأول على مقابلات مفصلة مع الباحثين الرئيسيين.
ربما لا أحد ، نتيجة لذلك ، سعى لفهم الذكاء الاصطناعي في سياق أوسع ، بما في ذلك تطوير البحوث التشغيلية ، "العلوم الكبرى" ، العلوم الاكتوارية والتمويل العسكري الأمريكي ، كما كان يتطور منذ الحرب العالمية الثانية. شطب هذه القصص ، يمكن فصل منظمة العفو الدولية عن سياقها التاريخي والسياسي.
بدون هذا السياق ، قد يبدو الذكاء الاصطناعي منفصلاً عن نظام العلوم الذي أنشأه. في محادثة عام 1957 مع المتخصصين في مجال البحوث التشغيلية ، لاحظ سيمون تنوع الماضي في مجاله العلمي. ووصف مساهمة النساجين الفرنسيين وميكانيكي الجاكار ، وكذلك سميث ، دي بروني ، وبابج وزملائه في العلوم اللينة ، بأنها "ديون" جماعية لا يزال يتعين سدادها.
هذه المعرفة الجديدة كان يمكن أن تأتي بشكل غير متوقع ، ومن أماكن كثيرة ، أثارت سايمون في عمله - وقد تجعلنا نفكر بنفس الطريقة اليوم. الذكاء الاصطناعى الحديث لا يمكن أن يعكس فقط العقيدة التنظيمية التي ميزت ميلادها ، ولكن أيضًا تعكس إنسانيتنا.