
"Nous pensons que Google ne devrait pas faire partie du secteur militaire. Par conséquent, nous demandons à l'entreprise d'annuler le projet Maven, ainsi que de publier et d'appliquer une politique qui stipule clairement que ni Google ni ses sous-traitants ne construiront jamais de technologie militaire », commence le texte de la lettre collective à l'employeur, qui est désormais massivement signée par les employés de Google. Le document a déjà été signé par
plus de 3 100 personnes ,
selon le NY Times . Les éditeurs ont obtenu le
texte (pdf) .
Comme il est devenu connu il y a un mois, le géant de la recherche a
signé un contrat avec le département américain de la Défense . Dans le cadre
du projet Maven, à la fin de 2017, il était prévu «d'introduire des algorithmes informatiques avancés dans les plates-formes gouvernementales pour reconnaître les objets dans un grand nombre d'images animées ou fixes». En fait, il s'agit d'un système de vision industrielle pour les drones militaires.
Dans la lettre, le projet Maven est brièvement décrit comme «un moteur d'IA personnalisé qui utilise les données de Wide Motion Motion Imagery collectées par les véhicules aériens sans pilote du gouvernement américain pour détecter les véhicules et autres objets, suivre leurs mouvements et transmettre les résultats de la reconnaissance au ministère de la Défense».
Parmi les employés ordinaires de Google, une
discussion sur le projet dure depuis au moins un mois . La lettre dit qu'au début, ils ont essayé de discuter du problème au sein de l'entreprise. Le personnel a été adressé par le président du conseil d'administration de Google Diane Greene (Diane Greene). Elle a assuré que la technologie de Google ne "contrôlerait pas les drones" et "ne serait pas utilisée pour lancer des armes". Comme si ces faits suffisaient à rassurer tout le monde. Mais non. En fait, la technologie peut être utilisée pour un grand nombre d'autres applications militaires, y compris les drones de combat qui transportent à bord des armes mortelles. Et personne ne garantit que l'opérateur d'UAV décidera d'utiliser cette arme après avoir reçu des données de Google. Les programmeurs civils ordinaires, les spécialistes de la vision industrielle et de l'intelligence artificielle ne veulent pas assumer une telle responsabilité.
À l'automne 2017, lors d'un sommet sur l'intelligence artificielle et les systèmes de sécurité mondiaux, Eric Schmidt a
exprimé sa crainte que ces systèmes avancés de vision industrielle et l'IA ne soient «mal utilisés par l'armée pour tuer des gens». Selon lui, dans le secteur de la technologie, il y a une certaine inquiétude à ce sujet, car en général, les sociétés informatiques ne développent pas du tout de systèmes de vision industrielle. De nombreux scientifiques et chercheurs des universités et des départements d'IA ne suggèrent pas que leur développement puisse être utilisé de cette manière.
Le Pentagone pense le contraire. Le projet Maven a été lancé en avril 2017 et l'année dernière, le ministère de la Défense a investi au total 7,4 milliards de dollars dans des domaines liés à l'intelligence artificielle, a
écrit le Wall Street Journal . Désormais, tous les travaux d'achat d'équipements et de logiciels, ainsi que la mise en œuvre de systèmes d'IA, sont coordonnés dans le cadre du projet Maven. La tâche principale est la reconnaissance d'objets et le traitement analytique d'un grand nombre d'images vidéo prises par des drones de reconnaissance. Sur la base de ces informations, des décisions peuvent être prises pour détruire des cibles.
"Ce plan nuira irrémédiablement à la marque et à la capacité de Google à être compétitif sur le marché du travail", indique la lettre. - Au milieu des craintes croissantes d'une IA biaisée et armée, Google a déjà du mal à maintenir la confiance du public. En signant ce contrat, Google rejoindra les rangs d'entreprises telles que Palantir, Raytheon et General Dynamics. L'argument selon lequel d'autres entreprises, telles que Microsoft et Amazon, participent également au projet, ne réduit pas les risques pour Google. "L'histoire unique de Google, sa devise
Don't Be Evil , et l'impact direct sur la vie de milliards de personnes le font disparaître."
Les employés estiment qu'il est
impossible de transférer à des personnes non autorisées la responsabilité morale de l'utilisation des technologies créées . Les valeurs déclarées par Google indiquent clairement que chaque utilisateur fait confiance à l'entreprise. Vous ne pouvez jamais le risquer. Ce contrat met en péril la réputation de Google et contredit directement les valeurs fondamentales. "La création de cette technologie pour aider le gouvernement américain dans le domaine du renseignement militaire - et potentiellement des décès - est inacceptable", indique la lettre.
Ainsi, des milliers d'employés qui ont signé la lettre demandent à la direction:
- Annulez le projet immédiatement.
- Concevez, publiez et appliquez une politique claire qui dit que ni Google ni ses sous-traitants ne créeront jamais de technologie pour la guerre.
En réponse aux plaintes du public, Google s'est
désabonné du fait que le Pentagone utilise «un logiciel gratuit accessible à tout utilisateur de Google Cloud». La technologie "est utilisée pour identifier les images candidates à étudier par une personne et est conçue pour sauver des vies humaines et éviter aux gens d'avoir à faire un travail très fastidieux."
Selon les informations disponibles, dans un avenir proche, Google, Amazon et Microsoft plaideront pour un contrat de plusieurs milliards de dollars pour la fourniture de services cloud au département américain de la Défense.
