
Docenas de artículos sobre la necesidad de crear legislación para robots e inteligencia artificial (IA) se publican constantemente en todo el mundo. Según uno de los principales pensadores jurídicos en el nuevo campo del derecho, el profesor Ono Academic College (Israel) Gabriel Hallevy: “ Hoy estamos en un vacío, un vacío legal. No sabemos cómo relacionarnos con estas criaturas ". Y recientemente, el propio Bill Gates dijo que desde que los robots comienzan a ocupar los trabajos de las personas, deben pagar impuestos.
Según un estudio realizado por Ryan Keilo , en la ley estadounidense, un robot es tratado como una máquina programada que cumple la voluntad de una persona. Por lo tanto, en todos los casos, son los creadores los responsables de las acciones del robot. Este enfoque no es controvertido hasta que los sistemas robóticos autónomos sean ampliamente utilizados. Pero, ¿qué pasa si, por ejemplo, estamos hablando de la planta de Tesla , que emplea 160 robots de todo tipo? Para cualquier emergencia, la responsabilidad puede recaer en el programador-desarrollador, la compañía proveedora, el taller principal, etc.
En todos los continentes, las disputas están hirviendo sobre cómo salir de la situación. Si ignoramos los llamados extremistas para extender el actual derecho administrativo y penal a los robots y castigarlos hasta el desmantelamiento, quedan varios enfoques. Algunos sugieren que los robots ofensivos sean tomados de los propietarios y transferidos para realizar el servicio comunitario. Otros, más cautelosos, ven la salida en el registro obligatorio de robots, con su posterior seguro para compensar el daño.
Con toda la variedad de enfoques de la ley para los robots y la IA, la pregunta sin resolver es: ¿quién será específicamente responsable si el robot o la IA infligen daño a individuos y corporaciones? Hay tres problemas sin resolver que impiden el desarrollo práctico de la legislación para los robots en términos de determinación de responsabilidad:
El primer problema Los sistemas robóticos controlados por IA y capaces de aprender son dispositivos autónomos muy complejos. Un gran número de personas y empresas están involucradas en su creación y operación. Entre los abogados, este problema se conoce como el problema de la cadena larga. Como regla general, para cada robot e IA, el hardware y el software son producidos por diferentes corporaciones. Además, en sistemas complejos, los fabricantes de hardware y software tampoco son una, sino varias compañías y desarrolladores individuales. No se olvide de los proveedores que brindan telecomunicaciones. A menudo, los complejos sistemas robóticos están vinculados a Internet de las cosas . Sin embargo, esto no es todo. Todavía hay organizaciones que compran y usan estos robots. Entonces, la longitud de la cadena llega a 12-15 personas.
El segundo problema La vida real difiere de los juegos (como no solo el ajedrez y el draft, sino también, por ejemplo, el póker) con un carácter no determinista. En la vida, el contexto y las características de la situación juegan un papel muy importante. Dependiendo de la situación, la cuestión de la responsabilidad, la culpa, etc., se decide de manera diferente. En la ley para las personas, este contexto se tiene en cuenta a través de la institución de un jurado. Es el jurado el que dicta el veredicto, probando las leyes y los precedentes del contexto de una situación particular.
El tercer problema En la práctica, tanto hoy como en el futuro cercano, los sistemas robóticos complejos serán completamente autónomos solo en un pequeño número de casos. Esto se debe en parte a la posición de las instituciones estatales y la opinión pública. Por lo tanto, un número significativo de creadores y operadores de sistemas robóticos controlados por IA confían en la inteligencia híbrida, el trabajo conjunto del hombre y la máquina. En consecuencia, el protocolo de interacción hombre-máquina debe ser introducido en la legislación para robots. Como muestra la práctica, es una persona en muchos sistemas el vínculo más vulnerable.
Además, este problema tiene otro lado. Las principales preocupaciones asociadas con el uso de sistemas robóticos autónomos se relacionan con su daño intencional o no intencional a los seres vivos. En el caso de daños intencionales, la situación es clara: se deben buscar cibercriminales. En caso de daño involuntario, la situación no es tan clara. Basado en la historia de la interacción humana con la tecnología, es seguro decir que en la mayoría de los problemas futuros con los robots, las personas que violen los procedimientos de seguridad y varios tipos de reglas serán los culpables.
Con todas las feroces discusiones sobre los precedentes para la formación del derecho administrativo y, posiblemente, penal para los robots y la IA, el tema clave para determinar la responsabilidad no recibe la debida atención. Puede hablar durante mucho tiempo sobre la necesidad de castigar un delito, pero hasta que haya una forma clara y aceptada para que la sociedad, las corporaciones y los estados determinen la responsabilidad de los delitos y las acciones punibles, las discusiones serán de naturaleza teórica.
Cuando se desarrollan propuestas para crear legislación para robots e IA, la corriente principal es el deseo de usar soluciones legales y normas aplicables a los humanos para los robots. La situación inversa se ha desarrollado en el tema de los " contratos inteligentes ". Aquí las personas están tratando de reemplazar la ley contextual flexible con procedimientos algorítmicos. Pero los algoritmos rigurosos tienen pocas posibilidades de reemplazar la legislación flexible y contextual utilizada por particulares y empresas.
En la vida, así como en la aritmética, de dos desventajas puede obtener un plus. Los contratos inteligentes basados en Blockchain son una herramienta ideal para resolver los problemas de establecer y compartir responsabilidades dentro del marco de la ley para robots e IA. Al ser esencialmente una base de datos distribuida criptográficamente segura, la cadena de bloques es adecuada como base de la legislación para robots e IA.
Los sistemas automatizados autónomos controlados por IA, a pesar de su complejidad y multifuncionalidad, siguen siendo dispositivos algorítmicos. La interacción entre varios bloques de software y hardware de diseño complejo se captura y ejecuta mejor a través de blockchain.
Con este enfoque, los contratos inteligentes actúan como un módulo legal en cualquier complejo robótico complejo, incluida la IA administrada, determinando el alcance y el límite de responsabilidad de todos los involucrados en la creación y operación de este complejo.
Los contratos inteligentes para robots pueden realizar simultáneamente al menos tres funciones:
En primer lugar , permiten que cada producto cree una especie de caja negra distribuida. La caja negra no está en el sentido cibernético, sino en el significado de la caja negra utilizada en los aviones. En el caso de que algo saliera mal, puede determinar claramente, basándose en las lecturas de los sensores, los sensores y la ejecución del programa, qué componente específico es responsable de la falla y quién o qué es responsable de ello. En tales situaciones, el contrato inteligente proporciona la información necesaria para investigadores, compañías de seguros y tribunales.
En segundo lugar, un contrato inteligente puede actuar como un sistema de seguridad integrado para un dispositivo autónomo automatizado. La violación de ciertas condiciones puede interrumpir la ejecución de transacciones y la operación completa del dispositivo.
A diferencia de las funciones de recuadro negro, la función de seguridad en la práctica es algo más difícil de implementar. Para integrar este circuito en contratos inteligentes en funcionamiento, es necesario sincronizar la velocidad de una transacción con un comando de programa transmitido de un componente de un complejo autónomo a otro. Cuando esto se pueda hacer, los fabricantes podrán proporcionar a los consumidores robots mucho más seguros.
- En tercer lugar , el uso de contratos inteligentes puede hipotéticamente aumentar la conciencia de las personas cuando trabajan con robots. Comprender el hecho de que cada acción se grabará permanentemente en la cadena de bloques puede hacer que un empleado negligente piense cien veces antes de romper las precauciones de seguridad.
Todas las reglas son algoritmos estrictamente prescritos. Implican la implementación de acciones estrictamente definidas en situaciones estrictamente establecidas. Por lo tanto, blockchain es el más adecuado para concluir contratos inteligentes entre fabricantes de sistemas autónomos complejos, por un lado, y con sus usuarios, por otro. Cuando se trabaja con sistemas autónomos, las personas no solo deberían recibir oportunidades que antes no existían, sino también asumir la responsabilidad de sus propias acciones, escritas en el lenguaje algorítmico. En el caso de incidentes, la presencia de un contrato inteligente, junto con las lecturas de sensores y sensores, ayudará a determinar quién es exactamente - un sistema automatizado o una persona - tiene la culpa de lo que sucedió.
Estuche para pequeño. Deje lo humano a las personas, y la máquina a las máquinas, y comience a traducir estándares, reglas técnicas, reglas de seguridad, etc. en el lenguaje de los contratos inteligentes para robots y personas que interactúan con ellos.