
“Creemos que Google no debería convertirse en parte del negocio militar. Por lo tanto, le pedimos a la compañía que cancele el proyecto Maven, así como que publique y aplique una política que establezca claramente que ni Google ni sus contratistas construirán tecnología militar ", comienza el texto de la carta colectiva al empleador, que ahora está siendo firmado masivamente por los empleados de Google. El documento ya ha sido firmado por
más de 3.100 personas ,
según el NY Times . Los editores obtuvieron el
texto (pdf) .
Como se supo hace un mes, el gigante de las búsquedas
firmó un contrato con el Departamento de Defensa de los Estados Unidos . Como parte
del proyecto Maven, para fines de 2017 se planeó "introducir algoritmos informáticos avanzados en plataformas gubernamentales para reconocer objetos en una gran cantidad de imágenes en movimiento o fijas". De hecho, este es un sistema de visión artificial para UAV militares.
En la carta, el proyecto Maven se describe brevemente como "un motor de IA personalizado que utiliza los datos de imágenes de movimiento de área amplia recopilados por vehículos aéreos no tripulados del gobierno de EE. UU. Para detectar vehículos y otros objetos, rastrear sus movimientos y transmitir resultados de reconocimiento al Departamento de Defensa".
Entre los empleados comunes de Google,
se ha estado discutiendo el proyecto durante al menos un mes . La carta dice que al principio intentaron discutir el problema dentro de la empresa. El presidente de la junta de Google, Diane Greene, se dirigió al personal. Aseguró que la tecnología de Google no "controlará los drones" y "no se utilizará para lanzar armas". Como si estos hechos fueran suficientes para tranquilizar a todos. Pero no De hecho, la tecnología se puede utilizar para una gran cantidad de otras aplicaciones militares, incluidos los UAV de combate que llevan armas mortales a bordo. Y nadie garantiza que el operador del UAV decidirá usar esta arma después de recibir datos de Google. Los programadores civiles ordinarios, los especialistas en visión artificial e inteligencia artificial no quieren asumir esa responsabilidad.
En el otoño de 2017, en una cumbre sobre Inteligencia Artificial y Sistemas de Seguridad Global, Eric Schmidt
expresó su preocupación de que tales sistemas avanzados de visión artificial e IA podrían "ser utilizados incorrectamente por los militares para matar personas". Según él, en la industria de la tecnología existe cierta preocupación al respecto, porque, en términos generales, las empresas de TI no están desarrollando sistemas de visión artificial. Muchos científicos e investigadores de universidades y departamentos de IA no sugieren que su desarrollo pueda usarse de esta manera.
El Pentágono cree lo contrario. El proyecto Maven se lanzó en abril de 2017, y el año pasado el Departamento de Defensa invirtió un total de $ 7,4 mil millones en áreas relacionadas con la Inteligencia Artificial,
escribió The Wall Street Journal . Ahora todo el trabajo en la compra de equipos y software, así como la implementación de sistemas de IA, se coordina dentro del marco del proyecto Maven. La tarea principal es el reconocimiento de objetos y el procesamiento analítico de una gran cantidad de cuadros de video tomados por drones de reconocimiento. En base a esta información, se pueden tomar decisiones para destruir objetivos.
"Este plan dañará irreparablemente la marca y la capacidad de Google para competir en el mercado laboral", decía la carta. - En medio de los crecientes temores de una IA sesgada y armada, Google ya está luchando por mantener la confianza del público. Al firmar este contrato, Google se unirá a las filas de compañías como Palantir, Raytheon y General Dynamics. El argumento de que otras empresas, como Microsoft y Amazon, también participan en el proyecto, no reduce los riesgos para Google. "La historia única de Google, su lema
Don't Be Evil y el impacto directo en la vida de miles de millones de personas lo están dejando fuera de escena".
Los empleados creen que es
imposible transferir a personas no autorizadas la responsabilidad moral por el uso de las tecnologías creadas . Los valores declarados de Google dejan en claro que cada usuario confía en la empresa. Nunca puedes arriesgarte. Este contrato pone en peligro la reputación de Google y contradice directamente los valores centrales. "La creación de esta tecnología para ayudar al gobierno de EE. UU. En inteligencia militar, y potencialmente muertes, es inaceptable", dice la carta.
Por lo tanto, miles de empleados que firmaron la carta le preguntan a la gerencia:
- Cancele el proyecto de inmediato.
- Diseñe, publique y aplique una política clara que diga que ni Google ni sus contratistas crearán tecnología para la guerra.
En respuesta a las quejas públicas, Google
canceló la
suscripción de que el Pentágono utiliza "software gratuito disponible para cualquier usuario de Google Cloud". La tecnología "se utiliza para identificar imágenes candidatas para ser estudiadas por una persona y está diseñada para salvar vidas humanas y evitar que las personas tengan que hacer un trabajo muy tedioso".
Según la información disponible, en un futuro próximo, Google, Amazon y Microsoft abogarán por un contrato multimillonario para la prestación de servicios en la nube al Departamento de Defensa de los EE. UU.
