Depuis plusieurs mois, Google se bat avec Microsoft et Amazon pour
un contrat de plusieurs millions de dollars avec le Pentagone pour des services cloud et des systèmes d'intelligence artificielle (voir la
fuite de la correspondance interne des top managers ). Malheureusement, à titre indicatif, des bâtons sont insérés dans les roues ... par nos propres employés. En mars 2018, ils ont commencé à
collecter des signatures contre le développement de la technologie militaire chez Google, qui avait
auparavant le principe «Don't be evil» comme devise principale.
La direction a dû faire partiellement des concessions. Hier, Sundar Pichai, PDG, a
annoncé un ensemble de principes auxquels Google promet de continuer à adhérer. Parmi celles-ci figure l'interdiction de l'utilisation de développements internes dans le domaine de l'intelligence artificielle pour les armes, la surveillance illégale et les technologies qui causent des "préjudices communs". Mais Google continuera de collaborer avec les militaires dans d'autres domaines. Ainsi, la division cloud conserve les chances de remporter l'appel d'offres.
UAV militaire américainSundar Pichai a écrit sur un blog officiel que Google investit massivement dans la recherche et le développement de l'IA, rendant ces technologies largement accessibles à tous en utilisant des outils et l'open source. «Nous reconnaissons qu'une technologie aussi puissante soulève des questions tout aussi sérieuses concernant son utilisation. La façon dont l'IA est développée et utilisée aura un impact significatif sur la société pendant de nombreuses années à venir, explique le PDG. "En tant que leader de l'IA, nous nous sentons profondément responsables." C'est pourquoi nous annonçons aujourd'hui les sept principes de notre travail. Ce ne sont pas des concepts théoriques; ce sont des normes spécifiques qui géreront activement notre recherche et notre développement de produits et qui influenceront nos décisions commerciales. »
Voici donc sept des principes de l'IA de Google sous forme abrégée.
1. Avantages sociaux
Les réalisations en IA auront un impact transformateur dans un large éventail de domaines, notamment les soins de santé, la sécurité, l'énergie, les transports, la fabrication et le divertissement. Compte tenu du développement et de l'utilisation potentiels des technologies de l'IA, la société prendra en compte un large éventail de facteurs sociaux et économiques et agira là où les avantages probables globaux dépasseront considérablement les risques et inconvénients prévus.
2. Lutte contre la discrimination
Les algorithmes et les jeux de données de l'IA peuvent refléter, renforcer ou réduire la discrimination. Google reconnaît qu'il n'est pas toujours facile de distinguer juste d'un préjudice injuste et qu'il diffère selon les cultures et les sociétés. L'entreprise promet de «s'efforcer d'éviter les conséquences injustes pour les personnes, en particulier celles associées à des caractéristiques sensibles telles que la race, l'ethnicité, le sexe, la nationalité, le revenu, l'orientation sexuelle, les capacités et les convictions politiques ou religieuses».
3. Sécurité
Les systèmes d'intelligence artificielle de Google seront «adéquatement protégés» et conçus «conformément aux meilleures pratiques dans le domaine de la recherche sur la sécurité de l'intelligence artificielle».
4. Responsabilité
Les systèmes d'IA offriront des opportunités appropriées de retour d'informations, d'explications pertinentes sur leurs actions et d'appels éventuels. L'homme gardera le contrôle sur eux.
5. Principes de confidentialité
Google promet d'utiliser ses principes de confidentialité dans le développement et l'utilisation de la technologie de l'IA, ainsi que d'assurer une transparence et un contrôle appropriés sur l'utilisation des données.
6. Normes d'excellence scientifique élevées
L'innovation technologique découle d'une méthode scientifique et d'un engagement à la recherche ouverte, à la rigueur intellectuelle, à l'intégrité et à la coopération. Les outils d'IA peuvent ouvrir de nouveaux domaines de recherche et de connaissances dans des domaines critiques tels que la biologie, la chimie, la médecine et les sciences de l'environnement. Google promet de viser des normes d'excellence scientifique élevées, de partager de manière responsable les connaissances en matière d'IA, de publier des supports de formation, des meilleures pratiques et des recherches permettant à davantage de personnes de développer des applications d'IA utiles.
7. Fournir la technologie de l'IA uniquement à ceux qui adhèrent à ces principes.
De nombreuses technologies ont un double usage, dont l'IA. Google promet de travailler sur la limitation des applications potentiellement dangereuses ou offensantes, ainsi que d'évaluer leur utilisation probable.
Sundar Pichai a cité une liste de technologies inacceptables pour l'intelligence artificielle de Google.
- Technologies qui causent ou peuvent causer un préjudice général.
- Armes ou autres technologies dont le but principal ou la mise en œuvre est de causer ou d'atténuer directement des dommages aux personnes.
- Les technologies qui collectent ou utilisent des informations de surveillance violent les normes internationalement reconnues.
- Technologies dont la finalité est contraire aux principes universellement reconnus du droit international et des droits de l'homme.
À certains égards, ces principes ressemblent aux lois de la robotique d'Asimov. Il est à espérer que d'autres sociétés de systèmes d'IA annonceront également officiellement leur engagement envers ces principes et les respecteront.