
Dezenas de artigos sobre a necessidade de criar legislação para robôs e inteligência artificial (IA) são publicados constantemente em todo o mundo. De acordo com um dos principais pensadores jurídicos no novo campo do direito, o Professor Ono Academic College (Israel) Gabriel Hallevy: “ Hoje estamos no vácuo - um vácuo jurídico. Não sabemos como nos relacionar com essas criaturas ". E, recentemente, o próprio Bill Gates disse que, desde que os robôs começam a ocupar o emprego das pessoas, eles devem pagar impostos.
Segundo um estudo de Ryan Keilo , na lei americana, um robô é tratado como uma máquina programada que cumpre a vontade de uma pessoa. Portanto, em todos os casos, são os criadores que são responsáveis pelas ações do robô. Essa abordagem não é controversa até que sistemas robóticos autônomos sejam amplamente utilizados. Mas e se, por exemplo, estamos falando da fábrica de Tesla , que emprega 160 robôs de todos os tipos? Para qualquer emergência, a responsabilidade pode ser atribuída ao programador-desenvolvedor, empresa fornecedora, oficina principal e assim por diante.
Em todos os continentes, há discussões fervorosas sobre como sair da situação. Se ignorarmos os pedidos extremistas de estender a atual lei administrativa e criminal aos robôs e puni-los até o desmantelamento, várias abordagens permanecem. Alguns sugerem que robôs ofensivos sejam retirados dos proprietários e transferidos para prestar serviço comunitário. Outros, mais cautelosos, veem a saída no registro obrigatório de robôs, com seu seguro subsequente para compensar os danos.
Com toda a variedade de abordagens da lei para robôs e IA, a questão não resolvida é: quem será o responsável específico se o robô ou a IA causar danos a indivíduos e corporações. Existem três problemas não resolvidos que impedem o desenvolvimento prático de legislação para robôs em termos de determinação de responsabilidade:
O primeiro problema Sistemas robóticos controlados por IA e capazes de aprender são dispositivos autônomos muito complexos. Um grande número de pessoas e empresas está envolvido em sua criação e operação. Entre os advogados, esse problema é conhecido como o problema da cadeia longa. Como regra, para cada robô e IA, o hardware e o software são produzidos por diferentes empresas. Além disso, em sistemas complexos, os fabricantes de hardware e software também não são um, mas várias empresas e desenvolvedores únicos. Não se esqueça dos provedores que fornecem telecomunicações. Frequentemente, sistemas robóticos complexos estão ligados à Internet das coisas . No entanto, isso não é tudo. Ainda existem organizações que compram e usam esses robôs. Portanto, o comprimento da corrente atinge 12 a 15 pessoas.
O segundo problema. A vida real difere dos jogos (como não apenas o xadrez e os rascunhos, mas também, por exemplo, o pôquer) com um caráter não determinístico. Na vida, o contexto e as características da situação desempenham um papel enorme. Dependendo da situação, a questão da responsabilidade, culpa etc. é decidida de maneira diferente. Na lei das pessoas, esse contexto é levado em consideração através da instituição de um júri. É o júri que dá o veredicto, tentando leis e precedentes no contexto de uma situação específica.
O terceiro problema. Na prática, hoje e em um futuro próximo, sistemas robóticos complexos serão completamente autônomos apenas em um pequeno número de casos. Isso se deve em parte à posição das instituições estatais e da opinião pública. Portanto, um número significativo de criadores e operadores de sistemas robóticos controlados por IA depende da inteligência híbrida - o trabalho conjunto de homem e máquina. Consequentemente, o protocolo de interação homem-máquina deve ser inserido na legislação para robôs. Como mostra a prática, é uma pessoa em muitos sistemas que é o link mais vulnerável.
Além disso, esse problema tem outro lado. As principais preocupações associadas ao uso de sistemas robóticos autônomos estão relacionadas ao dano intencional ou não intencional a seres vivos. No caso de danos intencionais, a situação é clara: os criminosos cibernéticos devem ser procurados. Em caso de dano involuntário - a situação não é tão clara. Com base na história da interação humana com a tecnologia, é seguro dizer que na maioria dos problemas futuros com robôs pessoas que violam procedimentos de segurança e vários tipos de regras serão os culpados.
Com todas as discussões acirradas sobre precedentes para a formação de leis administrativas e, possivelmente, criminais para robôs e IA, o tópico principal da determinação de responsabilidade não recebe a devida atenção. Você pode falar por um longo tempo sobre a necessidade de punir um crime, mas até que exista uma maneira clara e aceita pela sociedade, corporações e estados de determinar a responsabilidade por crimes e ações puníveis, as discussões terão natureza teórica.
Ao desenvolver propostas para criar legislação para robôs e IA, o mainstream é o desejo de usar soluções e normas legais aplicáveis aos seres humanos para robôs. A situação inversa se desenvolveu no tópico " contratos inteligentes ". Aqui, as pessoas estão tentando substituir a lei contextual flexível por procedimentos algorítmicos. Porém, algoritmos rigorosos têm poucas chances de substituir a legislação flexível e contextual usada por indivíduos e empresas.
Na vida, bem como na aritmética, a partir de dois pontos negativos, você pode obter uma vantagem. Os contratos inteligentes baseados em blockchain são uma ferramenta ideal para resolver os problemas de estabelecer e compartilhar responsabilidades no âmbito da lei para robôs e IA. Sendo essencialmente um banco de dados distribuído criptograficamente seguro, o blockchain é adequado como base da legislação para robôs e IA.
Os sistemas automatizados autônomos controlados pela IA, apesar de sua complexidade e multifuncionalidade, continuam sendo dispositivos algorítmicos. A interação entre vários blocos de software e hardware de design complexo é melhor capturada e executada através do blockchain.
Com essa abordagem, os contratos inteligentes atuam como um módulo legal em qualquer complexo robótico complexo, incluindo IA gerenciada, determinando o escopo e o limite de responsabilidade de todos os envolvidos na criação e operação desse complexo.
Os contratos inteligentes para robôs podem executar simultaneamente pelo menos três funções:
Primeiro , eles permitem que cada produto crie um tipo de caixa preta distribuída. A caixa preta não está no sentido cibernético, mas no significado da caixa preta usada em aeronaves. No caso de algo dar errado, você pode determinar claramente, com base nas leituras de sensores, sensores e na execução do programa, qual componente específico é responsável pela falha e quem ou o que é responsável por ela. Nessas situações, o contrato inteligente fornece as informações necessárias para investigadores, seguradoras e tribunais.
Em segundo lugar, um contrato inteligente pode atuar como um sistema de segurança integrado para um dispositivo autônomo automatizado. A violação de certas condições pode interromper a execução das transações e toda a operação do dispositivo.
Diferentemente das funções da caixa preta, a função de segurança na prática é um pouco mais difícil de implementar. Para integrar esse circuito em contratos inteligentes, é necessário sincronizar a velocidade de uma transação com um comando de programa transmitido de um componente de um complexo autônomo para outro. Quando isso puder ser feito, os fabricantes poderão fornecer aos robôs robôs muito mais seguros.
- Em terceiro lugar , o uso de contratos inteligentes pode hipoteticamente aumentar a consciência das pessoas ao trabalhar com robôs. Entender o fato de que todas as ações serão permanentemente registradas na blockchain pode fazer um funcionário negligente pensar centenas de vezes antes de violar as precauções de segurança.
Quaisquer regras são algoritmos estritamente prescritos. Elas implicam na implementação de ações estritamente definidas em situações estritamente estabelecidas. Portanto, o blockchain é o mais adequado para concluir contratos inteligentes entre fabricantes de sistemas autônomos complexos, por um lado, e com seus usuários, por outro. Ao trabalhar com sistemas autônomos, as pessoas devem receber não apenas oportunidades que não existiam antes, mas também assumir a responsabilidade por suas próprias ações, escritas na linguagem algorítmica. No caso de incidentes, a presença de um contrato inteligente, juntamente com as leituras de sensores e sensores, ajudará a determinar quem exatamente - um sistema automatizado ou uma pessoa - é o culpado pelo que aconteceu.
Estojo para pequenas. Deixe o humano para as pessoas e a máquina para as máquinas e comece a traduzir padrões, regras técnicas, regras de segurança, etc. na linguagem dos contratos inteligentes para robôs e pessoas que interagem com eles.