
يتم نشر عشرات المقالات حول الحاجة إلى إنشاء تشريع للروبوتات والذكاء الاصطناعي (AI) باستمرار حول العالم. وفقًا لأحد المفكرين القانونيين الرائدين في مجال القانون الجديد ، الأستاذ Ono Academic College (إسرائيل) غابرييل هاليفي: " نحن اليوم في فراغ - فراغ قانوني. لا نعرف كيف نتعامل مع هذه المخلوقات ". ومؤخرا ، قال بيل غيتس نفسه أنه منذ أن بدأت الروبوتات في شغل وظائف الناس ، يجب عليهم دفع الضرائب.
وفقًا لدراسة أجراها Ryan Keilo ، في القانون الأمريكي ، يتم التعامل مع الروبوت كآلة مبرمجة تحقق إرادة الشخص. لذلك ، في جميع الحالات ، يكون المبدعون هم المسؤولون عن أفعال الروبوت. هذا النهج ليس مثيرا للجدل حتى يتم استخدام الأنظمة الآلية المستقلة على نطاق واسع. ولكن ماذا لو ، على سبيل المثال ، نتحدث عن مصنع تسلا ، الذي يستخدم 160 روبوتًا من جميع الأنواع؟ لأي حالة طارئة ، يمكن وضع المسؤولية على عاتق المبرمج-المطور ، شركة المورد ، ورشة العمل الرئيسية وما إلى ذلك.
في جميع القارات ، تغلي الخلافات حول كيفية الخروج من الوضع. إذا تجاهلنا الدعوات المتطرفة لتمديد القانون الإداري والجنائي الحالي إلى الروبوتات ومعاقبتهم حتى تفكيكها ، فلا تزال هناك عدة طرق. يقترح البعض أن تؤخذ الروبوتات المسيئة من المالكين وتحويلها لأداء خدمة المجتمع. يرى آخرون ، أكثر حذراً ، المخرج في التسجيل الإجباري للروبوتات ، مع تأمينهم اللاحق للتعويض عن الضرر.
مع وجود مجموعة متنوعة من الأساليب القانونية للروبوتات والذكاء الاصطناعي ، فإن السؤال الذي لم يتم حله هو: من سيكون مسؤولًا بشكل خاص إذا تسبب الروبوت أو الذكاء الاصطناعي في إلحاق الضرر بالأفراد والشركات. هناك ثلاث مشاكل لم يتم حلها تعرقل التطوير العملي للتشريعات للروبوتات من حيث تحديد المسؤولية:
المشكلة الأولى . الأنظمة الروبوتية التي تسيطر عليها الذكاء الاصطناعي وقادرة على التعلم هي أجهزة مستقلة للغاية معقدة. يشارك عدد كبير من الأشخاص والشركات في إنشائها وتشغيلها. من بين المحامين ، تُعرف هذه المشكلة باسم مشكلة السلسلة الطويلة. كقاعدة ، لكل روبوت و AI ، يتم إنتاج الأجهزة والبرامج من قبل شركات مختلفة. علاوة على ذلك ، في الأنظمة المعقدة ، فإن مصنعي الأجهزة والبرمجيات ليسوا كذلك ، بل العديد من الشركات والمطورين الفرديين. لا تنسى مقدمي الخدمات الذين يوفرون الاتصالات. غالبًا ما ترتبط الأنظمة الروبوتية المعقدة بإنترنت الأشياء . ومع ذلك ، هذا ليس كل شيء. لا تزال هناك منظمات تشتري وتستخدم هذه الروبوتات. لذلك يصل طول السلسلة إلى 12-15 شخصًا.
المشكلة الثانية. تختلف الحياة الواقعية عن الألعاب (ليس فقط الشطرنج والمسودات ، ولكن أيضًا ، على سبيل المثال ، لعبة البوكر) ذات الشخصية غير الحتمية. في الحياة ، يلعب سياق وخصائص الموقف دورًا كبيرًا. اعتمادًا على الموقف ، يتم تحديد مسألة المسؤولية ، والذنب ، وما إلى ذلك ، بشكل مختلف. في القانون بالنسبة للناس ، يتم أخذ هذا السياق في الاعتبار من خلال هيئة المحلفين. إن هيئة المحلفين هي التي تصدر الحكم ، وتجرب القوانين والسوابق في سياق وضع معين.
المشكلة الثالثة. من الناحية العملية ، في الوقت الحاضر وفي المستقبل القريب ، ستكون الأنظمة الآلية المعقدة مستقلة تمامًا فقط في عدد صغير من الحالات. ويرجع ذلك جزئياً إلى موقف مؤسسات الدولة والرأي العام. لذلك ، يعتمد عدد كبير من المبدعين والمشغلين للأنظمة الروبوتية التي تسيطر عليها الذكاء الاصطناعي على الذكاء الهجين - العمل المشترك للإنسان والآلة. وفقًا لذلك ، يجب إدخال بروتوكول التفاعل بين الإنسان والآلة في تشريع الروبوتات. كما تظهر الممارسة ، فإن الشخص في العديد من الأنظمة هو الرابط الأكثر ضعفًا.
بالإضافة إلى ذلك ، فإن هذه المشكلة لها جانب آخر. تتعلق الاهتمامات الرئيسية المرتبطة باستخدام الأنظمة الآلية الآلية بضررها المتعمد أو غير المتعمد للكائنات الحية. في حالة الضرر المتعمد ، يكون الوضع واضحًا: يجب البحث عن مجرمي الإنترنت. في حالة الأذى غير الطوعي - الوضع ليس واضحًا. استنادًا إلى تاريخ التفاعل البشري مع التكنولوجيا ، من الآمن أن نقول أنه في معظم المشاكل المستقبلية مع الروبوتات ، فإن الأشخاص الذين ينتهكون إجراءات السلامة وأنواع مختلفة من القواعد سيكونون مسؤولين.
مع كل المناقشات الشرسة بشأن السوابق لتشكيل القانون الإداري ، وربما القانون الجنائي للروبوتات والذكاء الاصطناعي ، فإن الموضوع الرئيسي لتحديد المسؤولية لا يحظى بالاهتمام الواجب. يمكنك التحدث لفترة طويلة عن الحاجة للعقاب على الجريمة ، ولكن حتى تكون هناك طريقة واضحة ومقبولة للمجتمع والشركات والدول لتحديد المسؤولية عن الجرائم والإجراءات التي يعاقب عليها القانون ، ستكون المناقشات نظرية بطبيعتها.
عند وضع مقترحات لإنشاء تشريع للروبوتات والذكاء الاصطناعي ، فإن الاتجاه السائد هو الرغبة في استخدام الحلول والمعايير القانونية المطبقة على البشر للروبوتات. تطور الوضع العكسي في موضوع " العقود الذكية ". هنا يحاول الناس استبدال القانون السياقي المرن بإجراءات خوارزمية. لكن الخوارزميات الصارمة لديها فرصة ضئيلة لاستبدال التشريعات المرنة والسياقية التي يستخدمها الأفراد والشركات.
في الحياة ، وكذلك في الحساب ، من سلبيات يمكنك الحصول على زيادة. تعد العقود الذكية المستندة إلى Blockchain أداة مثالية لحل مشاكل إنشاء وتقاسم المسؤولية في إطار القانون للروبوتات والذكاء الاصطناعي. كونها قاعدة بيانات موزعة آمنة بشكل تشفير ، فإن blockchain مناسب كأساس للتشريع للروبوتات والذكاء الاصطناعي.
الأنظمة الآلية المستقلة التي تسيطر عليها منظمة العفو الدولية ، على الرغم من تعقيدها وتعدد وظائفها ، تظل أجهزة خوارزمية. من الأفضل التقاط التفاعل بين البرامج المختلفة وكتل الأجهزة ذات التصميم المعقد وتنفيذها من خلال blockchain.
باستخدام هذا النهج ، تعمل العقود الذكية كوحدة قانونية في أي مجمع روبوتي معقد ، بما في ذلك الذكاء الاصطناعي المُدار ، وتحدد نطاق وحدود مسؤولية جميع المشاركين في إنشاء وتشغيل هذا المجمع.
يمكن للعقود الذكية للروبوتات أن تؤدي في نفس الوقت ثلاث وظائف على الأقل:
أولاً ، أنها تسمح لكل منتج بإنشاء نوع من الصندوق الأسود الموزع. الصندوق الأسود ليس بالمعنى السيبراني ، ولكن بمعنى الصندوق الأسود المستخدم في الطائرات. في حالة حدوث خطأ ما ، يمكنك أن تحدد بوضوح ، بناءً على قراءات أجهزة الاستشعار وأجهزة الاستشعار وتنفيذ البرنامج ، أي مكون محدد مسؤول عن الفشل ومن المسؤول عنه أو المسؤول عنه. في مثل هذه الحالات ، يوفر العقد الذكي المعلومات اللازمة للمحققين وشركات التأمين والمحاكم.
ثانيًا ، يمكن للعقد الذكي أن يعمل كنظام أمان متكامل لجهاز مستقل آلي. قد يخرق انتهاك شروط معينة تنفيذ المعاملات وتشغيل الجهاز بالكامل.
على عكس وظائف الصندوق الأسود ، فإن وظيفة الأمان في الممارسة أكثر صعوبة إلى حد ما. من أجل دمج هذه الدائرة في العقود الذكية العاملة ، من الضروري مزامنة سرعة المعاملة مع أمر برنامج ينتقل من أحد مكونات مجمع مستقل إلى آخر. عندما يمكن القيام بذلك ، سيتمكن المصنعون من تزويد المستهلكين بروبوتات أكثر أمانًا.
- ثالثًا ، يمكن أن يؤدي استخدام العقود الذكية إلى زيادة وعي الأشخاص افتراضيًا عند العمل مع الروبوتات. إن فهم حقيقة أن كل إجراء سيتم تسجيله بشكل دائم على blockchain يمكن أن يجعل الموظف المهمل يفكر مائة مرة قبل كسر احتياطات السلامة.
يتم تحديد أي قواعد خوارزميات بدقة. إنها تنطوي على تنفيذ إجراءات محددة بدقة في المواقف الراسخة. لذلك ، فإن blockchain هو الأنسب لإبرام العقود الذكية بين الشركات المصنعة للأنظمة المستقلة المعقدة من ناحية ، ومع مستخدميها من ناحية أخرى. عند العمل مع أنظمة مستقلة ، يجب ألا يتلقى الأشخاص الفرص التي لم تكن موجودة من قبل فحسب ، بل يتحملون أيضًا المسؤولية عن أفعالهم الخاصة ، المكتوبة بلغة الخوارزمية. في حالة الحوادث ، فإن وجود عقد ذكي ، إلى جانب قراءات أجهزة الاستشعار وأجهزة الاستشعار ، سيساعد على تحديد من - بالضبط نظام آلي أو شخص - هو المسؤول عن ما حدث.
قضية صغيرة. اترك الإنسان للناس ، والآلة للآلات ، وابدأ في ترجمة المعايير ، والقواعد الفنية ، وقواعد السلامة ، وما إلى ذلك. إلى لغة العقود الذكية للروبوتات والأشخاص الذين يتفاعلون معها.