
Des dizaines d'articles sur la nécessité de créer une législation pour les robots et l'intelligence artificielle (IA) sont constamment publiés dans le monde. Selon l'un des principaux penseurs juridiques du nouveau domaine du droit, le professeur Ono Academic College (Israël) Gabriel Hallevy: « Aujourd'hui, nous sommes dans un vide - un vide juridique. Nous ne savons pas comment nous relier à ces créatures . " Et récemment, Bill Gates lui-même a déclaré que depuis que les robots commencent à occuper les emplois des gens, ils doivent payer des impôts.
Selon une étude de Ryan Keilo , en droit américain, un robot est traité comme une machine programmée qui répond à la volonté d'une personne. Par conséquent, dans tous les cas, ce sont les créateurs qui sont responsables des actions du robot. Cette approche n'est pas controversée tant que les systèmes robotiques autonomes ne sont pas largement utilisés. Mais que se passe-t-il si, par exemple, nous parlons de l'usine Tesla , qui emploie 160 robots de toutes sortes? Pour toute urgence, la responsabilité peut être confiée au programmeur-développeur, à la société fournisseur, à l'atelier principal, etc.
Les différends bouillonnent sur tous les continents, comment sortir de la situation. Si nous ignorons les appels extrémistes à étendre le droit administratif et pénal actuel aux robots et à les punir jusqu'au démantèlement, plusieurs approches restent. Certains suggèrent que les robots offensants soient retirés aux propriétaires et transférés pour effectuer un service communautaire. D'autres, plus prudents, voient la voie à suivre dans l'enregistrement obligatoire des robots, avec leur assurance ultérieure pour compenser les dégâts.
Avec toute la variété des approches du droit pour les robots et l'IA, la question non résolue est: qui sera spécifiquement responsable si le robot ou l'IA inflige des dommages aux individus et aux entreprises. Il existe trois problèmes non résolus qui entravent le développement pratique d'une législation pour les robots en termes de détermination de la responsabilité:
Le premier problème . Les systèmes robotiques contrôlés par l'IA et capables d'apprendre sont des appareils autonomes très complexes. Un grand nombre de personnes et d'entreprises sont impliquées dans leur création et leur fonctionnement. Chez les avocats, ce problème est connu comme le problème de la longue chaîne. En règle générale, pour chaque robot et IA, le matériel et les logiciels sont produits par différentes sociétés. De plus, dans les systèmes complexes, les fabricants de matériel et de logiciels ne sont pas non plus une, mais plusieurs sociétés et développeurs uniques. N'oubliez pas les fournisseurs de télécommunications. Les systèmes robotiques complexes sont souvent liés à l' Internet des objets . Mais ce n'est pas tout. Il existe encore des organisations qui achètent et utilisent ces robots. La longueur de la chaîne atteint donc 12 à 15 personnes.
Le deuxième problème. La vraie vie diffère des jeux (comme non seulement les échecs et les dames, mais aussi, par exemple, le poker) avec un caractère non déterministe. Dans la vie, le contexte et les caractéristiques de la situation jouent un rôle énorme. Selon la situation, la question de la responsabilité, de la culpabilité, etc., est décidée différemment. En droit des personnes, ce contexte est pris en compte par l'institution d'un jury. C'est le jury qui rend le verdict, jugeant les lois et les précédents dans le contexte d'une situation particulière.
Le troisième problème. En pratique, aujourd'hui et dans un futur proche, les systèmes robotiques complexes ne seront complètement autonomes que dans un petit nombre de cas. Cela est dû en partie à la position des institutions publiques et de l'opinion publique. Par conséquent, un nombre important de créateurs et d'opérateurs de systèmes robotiques contrôlés par l'IA s'appuient sur l'intelligence hybride - le travail conjoint de l'homme et de la machine. En conséquence, le protocole d'interaction homme-machine doit être inscrit dans la législation relative aux robots. Comme le montre la pratique, c'est une personne dans de nombreux systèmes qui est le maillon le plus vulnérable.
De plus, ce problème a un autre côté. Les principales préoccupations liées à l'utilisation de systèmes robotiques autonomes concernent leur préjudice intentionnel ou non intentionnel aux êtres vivants. En cas de dommages intentionnels, la situation est claire: les cybercriminels doivent être recherchés. En cas de préjudice involontaire - la situation n'est pas aussi claire. Sur la base de l'histoire de l'interaction humaine avec la technologie, il est sûr de dire que dans la plupart des problèmes futurs avec les robots, les personnes qui enfreignent les procédures de sécurité et divers types de règles seront à blâmer.
Avec toutes les discussions acharnées concernant les précédents pour la formation du droit administratif et, éventuellement, pénal pour les robots et l'IA, le sujet clé de la détermination de la responsabilité n'est pas pris en considération. Vous pouvez parler longtemps de la nécessité de punir un crime, mais tant qu'il n'y aura pas de moyen clair et accepté pour la société, les sociétés et les États de déterminer la responsabilité des crimes et des actions punissables, les discussions seront théoriques.
Lors de l'élaboration de propositions visant à créer une législation pour les robots et l'IA, le courant dominant est le désir d'utiliser des solutions et des normes juridiques applicables aux humains pour les robots. La situation inverse s'est développée sur le thème des « contrats intelligents ». Ici, les gens essaient de remplacer la loi contextuelle flexible par des procédures algorithmiques. Mais des algorithmes rigoureux ont peu de chances de remplacer la législation flexible et contextuelle utilisée par les particuliers et les entreprises.
Dans la vie, ainsi qu'en arithmétique, à partir de deux inconvénients, vous pouvez obtenir un plus. Les contrats intelligents basés sur la blockchain sont un outil idéal pour résoudre les problèmes d'établissement et de partage des responsabilités dans le cadre de la loi pour les robots et l'IA. Étant essentiellement une base de données distribuée sécurisée cryptographiquement, la blockchain convient comme base de la législation pour les robots et l'IA.
Les systèmes automatisés autonomes contrôlés par l'IA, malgré leur complexité et leur multifonctionnalité, restent des dispositifs algorithmiques. L'interaction entre divers blocs logiciels et matériels de conception complexe est mieux capturée et exécutée via la blockchain.
Avec cette approche, les contrats intelligents agissent comme un module juridique dans tout complexe robotique complexe, y compris l'IA gérée, déterminant la portée et la limite de responsabilité de toutes les personnes impliquées dans la création et le fonctionnement de ce complexe.
Les contrats intelligents pour les robots peuvent remplir simultanément au moins trois fonctions:
Premièrement , ils permettent à chaque produit de créer une sorte de boîte noire distribuée. La boîte noire n'est pas au sens cybernétique, mais au sens de la boîte noire utilisée dans les avions. En cas de problème, vous pouvez clairement déterminer, sur la base des relevés des capteurs, des capteurs et de l'exécution du programme, quel composant spécifique est responsable de la panne et qui ou quoi en est responsable. Dans de telles situations, le contrat intelligent fournit les informations nécessaires aux enquêteurs, aux compagnies d'assurance et aux tribunaux.
Deuxièmement, un contrat intelligent peut agir comme un système de sécurité intégré pour un appareil autonome automatisé. La violation de certaines conditions peut interrompre l'exécution des transactions et le fonctionnement complet de l'appareil.
Contrairement aux fonctions de boîte noire, la fonction de sécurité est en pratique un peu plus difficile à mettre en œuvre. Afin d'intégrer ce circuit dans des contrats intelligents fonctionnels, il est nécessaire de synchroniser la vitesse de la transaction avec une commande de programme transmise d'un composant d'un complexe autonome à un autre. Lorsque cela sera possible, les fabricants pourront fournir aux consommateurs des robots beaucoup plus sûrs.
- Troisièmement , l'utilisation de contrats intelligents peut hypothétiquement augmenter la conscience des gens lorsqu'ils travaillent avec des robots. Comprendre le fait que chaque action sera enregistrée en permanence sur la blockchain peut inciter un employé négligent à réfléchir cent fois avant de rompre les précautions de sécurité.
Toutes les règles sont des algorithmes strictement prescrits. Ils impliquent la mise en œuvre d'actions strictement définies dans des situations strictement établies. Par conséquent, la blockchain est la mieux adaptée pour conclure des contrats intelligents entre les fabricants de systèmes autonomes complexes d'une part, et avec leurs utilisateurs d'autre part. Lorsqu'ils travaillent avec des systèmes autonomes, les personnes doivent non seulement recevoir des opportunités qui n'existaient pas auparavant, mais aussi assumer la responsabilité de leurs propres actions, écrites dans le langage algorithmique. En cas d'incident, la présence d'un contrat intelligent, ainsi que les lectures des capteurs et des capteurs, aideront à déterminer qui exactement - un système automatisé ou une personne - est à blâmer pour ce qui s'est passé.
Étui pour petit. Laissez l'humain aux gens, et la machine aux machines, et commencez à traduire les normes, les règles techniques, les règles de sécurité, etc. dans le langage des contrats intelligents pour les robots et les personnes qui interagissent avec eux.