Si un robot mata a una persona, ¿quién será culpable?

imagen

Si está buscando signos de un apocalipsis inminente en el que los robots serán culpables , preste atención a la zona desmilitarizada entre Corea del Norte y Corea del Sur. Aquí, a lo largo de la frontera más fortificada del mundo, hay más que solo soldados vigilantes.


Conozca el SGR-A1, un reloj-robot desarrollado por Samsung en Corea del Sur. La unidad de 1.2 metros se ve un poco más grande que un par de cajas de zapatos de metal negro, pero sus ojos sin alma equipados con puertos infrarrojos pueden detectar al enemigo hasta a cuatro kilómetros de distancia. Su ametralladora está lista. 

imagen

Actualmente, el robot notifica a sus creadores de presuntos atacantes sentados en la sala de control. Y para que él abra fuego, es necesaria la aprobación del hombre. Pero este robot también funciona en modo automático y puede disparar primero a su discreción. La resistencia, mis compañeros humanos, es inútil.

El Pentágono y los militares de todo el mundo están desarrollando un arma cada vez más autónoma que va mucho más allá de los drones controlados a distancia utilizados por Washington en Pakistán, Afganistán y otros países. Los avances tecnológicos permitirán que estos nuevos tipos de armas seleccionen un objetivo y disparen a su elección sin la aprobación humana. Algunos predicen que estos robots algún día lucharán codo a codo con soldados humanos.

Como era de esperar, las noticias de robots que están matando ponen nerviosas a algunas personas. En abril de este año, una coalición internacional de diseñadores, científicos y defensores de los derechos humanos lanzó una campaña contra la creación de robots asesinos y apeló a los diplomáticos de las Naciones Unidas en Ginebra. Los activistas quieren prohibir el desarrollo y el uso de "armas autónomas mortales", aunque reconocen que tales armas, aunque tecnológicamente posibles, nunca se han utilizado.  

"Tiene sentido hacer una pregunta: ¿disminuirá el valor de la vida humana por el hecho de que los robots pueden matar personas?" Dijo Peter Asaro, profesor asistente de la Escuela de Estudios de Medios en Nueva York y portavoz de la Campaña Killer Robot.

Esta es solo una pregunta con la que los filósofos, los estudiosos del derecho y los científicos han estado luchando desde tiempos inmemoriales, mientras que el mundo se está preparando para la embestida de nuevos robots, que, según nos dicen, cortará el césped, cuidará a las personas mayores y enseñará a los niños con autismo. e incluso conducir nuestros autos. Estos robots no pueden matar, pero los funcionarios de tráfico quieren obligar a los gobiernos y los tribunales a considerar una serie de cuestiones legales y éticas. ¿A quién debo demandar si me atropella un automóvil sin conductor? ¿Qué pasa si el robot médico le da al paciente el medicamento equivocado? ¿Qué debo hacer si una aspiradora robot chupa accidentalmente mi cabello mientras dormita en el piso (como le sucedió a una mujer en Corea del Sur no hace mucho tiempo)? ¿Puede un robot cometer un crimen de guerra?

Es esta última pregunta la que más preocupa al profesor Asaro. Él y otros miembros de la coalición Human Rights Watch afirman que si un sistema informático autónomo programado para distinguir a los soldados enemigos de los civiles realmente aprieta el gatillo sin "aprobación humana", será muy difícil mantener la situación bajo control. controlar si algo sale mal.

Si un robot se estrella y mata a un pueblo entero, no puede poner un objeto inanimado frente a la Corte Penal Internacional o entregarlo a un tribunal militar. Y algunos expertos dicen que no se puede culpar legalmente ni siquiera a los desarrolladores de robots si no suponían que el robot podría volverse loco. 

En derecho penal, los tribunales deben encontrar lo que se conoce como mens rea, o voluntad culpable (del latín). Pero es poco probable que encuentren información de que el robot, con el nivel actual de desarrollo de inteligencia artificial, tiene una voluntad en principio. Los diseñadores de robots pueden ser considerados responsables si se descubre que el robot está fuera de control debido a un mal funcionamiento del programa. Sin embargo, es posible que no se les haga responsables de las acciones del robot asesino.

Estos robots asesinos pueden parecer cualquier cosa, desde drones autónomos hasta rovers robóticos con ametralladoras. En una directiva de 2012, el Departamento de Defensa de EE. UU. Dictaminó que los sistemas autónomos "deberían diseñarse de modo que los comandantes y operadores puedan ejercer niveles apropiados de control humano sobre el uso de la fuerza". En respuesta a un correo electrónico de una pregunta de The Globe and Mail, el Departamento de Defensa Nacional de Canadá dijo que "no se está desarrollando un arma mortal autónoma", pero su agencia de investigación participa activamente en un "programa de investigación en sistemas no tripulados".

Al menos una empresa de robótica, Clearpath Robotics Inc., con sede en Waterloo, Ontario, se ha opuesto a los robots asesinos, a pesar de crear robots para el ejército canadiense y estadounidense. Ryan Gariepie, cofundador de ClearPath y su director de tecnología, dijo que el desminado o la vigilancia, pero no la matanza, era un buen uso para los robots de combate autónomos, especialmente si tales vehículos están solo en un lado de la batalla: “¿Pueden los robots decidir quién puede soportar? "¿una sentencia de muerte? ¿Tiene una persona el derecho de quitarle la vida a los soldados enemigos de esta manera?"

Inevitablemente, la discusión sobre los asesinos de robots gira en torno a las "tres leyes de la robótica" de las historias del escritor de ciencia ficción Isaac Asimov. La primera ley prohíbe que los robots dañen a los humanos; el segundo les ordena obedecer a las personas solo si esto no contradice la primera ley; el tercero ordena a los robots que protejan sus propias vidas, siempre que esto no viole las dos primeras leyes. Pero la mayoría de los expertos dicen que estas leyes serán de poca utilidad en el mundo real: incluso Asimov muestra sus deficiencias en sus historias. 

Sin embargo, el profesor Ronald Arkin del Instituto de Tecnología de Georgia, un conocido diseñador de robots estadounidense que trabaja en proyectos del Pentágono, afirma que los robots asesinos u otros sistemas de armas automáticas se pueden programar para seguir las leyes de la guerra y seguirlas mejor que los humanos. . Un robot, dice, nunca disparará para defender su vida o por miedo. Tendrá acceso a información y datos que ningún soldado humano podría procesar tan rápido, cometiendo un error en el fragor de la batalla menos probable. Nunca matará intencionalmente a civiles en venganza por la muerte de un compañero. Y él realmente puede mirar a los soldados para que no cometan atrocidades.

El profesor Arkin también afirma que la tecnología autónoma ya está esencialmente en el campo de batalla. Según él, las baterías de misiles Patriot de EE. UU. Seleccionan automáticamente los objetivos y le dan a una persona hasta nueve segundos para cancelar el objetivo y detener el cohete. Y el sistema Phalanx de la Marina de los EE. UU. Protege las naves disparando automáticamente misiles.

Pero incluso requieren una moratoria sobre el desarrollo de armas más autónomas siempre que se pueda demostrar que pueden reducir las bajas civiles. “Nadie quiere la aparición de Terminator. ¿A quién le gustaría tener un sistema que se pueda enviar en una misión y que decida independientemente quién debe ser asesinado? - dice el profesor Arkin. "Estos sistemas deben desarrollarse con mucho cuidado y cuidado, y creo que hay formas de hacerlo".

Recientemente, las grandes empresas tecnológicas están cada vez más preocupadas por la inteligencia artificial. El físico Stephen Hawking advirtió que el advenimiento de la IA "podría significar el fin de la raza humana". Elon Musk, el fundador de Tesla Motors, calificó la IA como una "amenaza existencial", no menos peligrosa que las armas nucleares. Bill Gates, fundador de Microsoft, también está preocupado.

Las personas que realmente están trabajando en inteligencia artificial dicen que hay algo de qué preocuparse. Yoshua Bengio, un destacado investigador de IA en la Universidad de Montreal, señala que la ficción de Star Wars y Star Trek sobreestima en gran medida las capacidades de los robots y la inteligencia artificial. Un día, dice, podríamos construir máquinas que competirían con el cerebro humano. Pero ahora la IA aún no está tan desarrollada.

Se necesita hacer mucho más antes de que los robots se conviertan en lo que se ve en las películas ”, dice el profesor Bengio. - Todavía estamos muy lejos de alcanzar el nivel de comprensión del mundo que esperamos, por ejemplo, de un niño de cinco años o incluso de un adulto. Y para lograr este objetivo, puede llevar décadas o más. Ni siquiera podemos repetir la inteligencia de nivel del mouse.


Sin lugar a dudas, el desarrollo de hardware y software para robots se esfuerza constantemente hacia adelante.

Los robots desarrollados por Boston Dynamics, recientemente adquiridos por Google, pueden corretear a través de perros como perros y gatear como ratas en un área de desastre. 



Un perro robot llamado Spot puede ponerse de pie después de ser golpeado y sus patas de metal se ven inquietantemente realistas.  



Pero si tienes miedo de que la revolución de un robot asesino sea inevitable, Atlas, un robot humanoide de seis metros y 330 libras, puede ayudarte a calmarte. También creado por Boston Dynamics, puede subir escaleras y piedras. Parece el Cyberman de Doctor Who, una serie desarrollada por Apple. Sin embargo, su batería dura solo 1 hora.



Parece que, dice Jan Kerr, jefe del departamento de ética, derecho y tecnología de la Universidad de Ottawa, las personas tomarán gradualmente el control de las máquinas con inteligencia artificial, computadoras que eventualmente harán ciertas cosas mejor que nosotros. Aunque pasará algún tiempo antes de que aparezcan los autos que no necesitan un conductor, incluso ahora ya hay autos que pueden estacionarse solos. ¡IBM Watson Robot de International Business Machines Corp., que ganó el concurso Jeopardy! en 2011, actualmente se usa para analizar millones de páginas de investigación médica para recomendar procedimientos para pacientes con cáncer.

— ...  - , , , , , - . — , , , … , , .

Source: https://habr.com/ru/post/es381437/


All Articles