Google publicó 7 principios de ética de IA


Durante varios meses, Google ha estado luchando con Microsoft y Amazon por un contrato multimillonario del Pentágono para servicios en la nube y sistemas de inteligencia artificial (vea la filtración de la correspondencia interna de los altos directivos ). Desafortunadamente para orientación, nuestros propios empleados insertan palos en las ruedas ... En marzo de 2018, comenzaron a recolectar firmas contra el desarrollo de tecnología militar en Google, que anteriormente tenía el principio "No seas malvado" como su lema principal.

La gerencia tuvo que hacer concesiones parcialmente. Ayer, Sundar Pichai, CEO, anunció un conjunto de principios que Google promete seguir cumpliendo. Entre ellos está la prohibición del uso de desarrollos internos en el campo de la Inteligencia Artificial para armas, vigilancia ilegal y tecnologías que causan "daños comunes". Pero Google continuará colaborando con los militares en otras áreas. Por lo tanto, la división de nubes aún conserva las posibilidades de ganar la licitación.


UAV militar estadounidense

Sundar Pichai escribió en un blog oficial que Google está invirtiendo fuertemente en investigación y desarrollo de IA, haciendo que estas tecnologías sean ampliamente accesibles para todos los que usan herramientas y código abierto. “Reconocemos que una tecnología tan poderosa plantea preguntas igualmente serias con respecto a su uso. La forma en que se desarrolla y utiliza la IA tendrá un impacto significativo en la sociedad durante muchos años, dice el CEO. "Como líder en IA, sentimos una gran responsabilidad". Por lo tanto, hoy anunciamos los siete principios de nuestro trabajo. Estos no son conceptos teóricos; estos son estándares específicos que administrarán activamente nuestra investigación y desarrollo de productos e influirán en nuestras decisiones comerciales ".

Entonces, aquí hay siete de los principios de IA de Google en forma abreviada.

1. Beneficios sociales


Los logros en IA tendrán un impacto transformador en una amplia gama de áreas, que incluyen atención médica, seguridad, energía, transporte, fabricación y entretenimiento. Teniendo en cuenta el desarrollo potencial y el uso de tecnologías de IA, la compañía tendrá en cuenta una amplia gama de factores sociales y económicos y actuará donde los beneficios probables generales excedan significativamente los riesgos y desventajas proyectados.

2. Lucha contra la discriminación.


Los algoritmos y conjuntos de datos de AI pueden reflejar, reforzar o reducir la discriminación. Google reconoce que distinguir solo los prejuicios injustos no siempre es fácil y que difiere en las diferentes culturas y sociedades. La compañía promete "esforzarse por evitar consecuencias injustas para las personas, especialmente aquellas asociadas con características sensibles como raza, origen étnico, género, nacionalidad, ingresos, orientación sexual, capacidad y creencias políticas o religiosas".

3. Seguridad


Los sistemas de inteligencia artificial de Google estarán "adecuadamente protegidos" y diseñados "de acuerdo con las mejores prácticas en el campo de la investigación de seguridad de inteligencia artificial".

4. Responsabilidad


Los sistemas de IA proporcionarán oportunidades apropiadas para comentarios, explicaciones relevantes de sus acciones y posibles apelaciones. El hombre mantendrá el control sobre ellos.

5. Principios de privacidad.


Google promete utilizar sus principios de privacidad en el desarrollo y uso de la tecnología de inteligencia artificial, así como garantizar la transparencia y el control adecuados sobre el uso de los datos.

6. Altos estándares de excelencia científica.


La innovación tecnológica surge de un método científico y un compromiso con la investigación abierta, el rigor intelectual, la integridad y la cooperación. Las herramientas de IA tienen el potencial de desbloquear nuevas áreas de investigación y conocimiento en áreas críticas como biología, química, medicina y ciencias ambientales. Google promete esforzarse por alcanzar altos estándares de excelencia científica, compartir de manera responsable el conocimiento de IA, publicar materiales de capacitación, mejores prácticas e investigaciones que permitan a más personas desarrollar aplicaciones útiles de IA.

7. Proporcione tecnología de inteligencia artificial solo a quienes se adhieran a estos principios.


Muchas tecnologías tienen usos duales, incluida la IA. Google promete trabajar para limitar las aplicaciones potencialmente dañinas u ofensivas, así como evaluar su uso probable.

Sundar Pichai citó una lista de tecnologías que son inaceptables para la inteligencia artificial de Google.

  1. Tecnologías que causan o pueden causar daño general.
  2. Armas u otras tecnologías, cuyo objetivo principal o implementación es causar o aliviar directamente el daño a las personas.
  3. Las tecnologías que recopilan o usan información de vigilancia violan estándares internacionalmente reconocidos.
  4. Tecnologías cuyo propósito es contrario a los principios universalmente reconocidos del derecho internacional y los derechos humanos.

De alguna manera, estos principios se parecen a las leyes de la robótica de Asimov. Se espera que otras compañías de sistemas de inteligencia artificial también anuncien formalmente su compromiso con estos principios y los acaten.

Source: https://habr.com/ru/post/es413637/


All Articles