Dans un communiqué publié le 7 juin, Sundar Pichai, CEO de Google, a décrit une liste de principes éthiques que l'entreprise s’engage à respecter dans ses travaux sur l’intelligence artificielle.
Cette communication survient alors que des employés de Google ont récemment protesté contre l'utilisation de l'intelligence artificielle à des fins militaires.
L'entreprise venait de conclure un contrat avec le Pentagone portant sur l'interprétation d'images vidéo dont les résultats pourraient potentiellement être utilisés pour améliorer le ciblage des frappes de drones.
Plus de 4 000 employés de Google ont signé une pétition protestant contre le contrat et quelques employés ont démissionné, rapporte le New York Times.
En réponse, Google a déclaré qu'il ne chercherait pas à renouveler le contrat lorsqu'il expirera l'année prochaine et s'est engagé à rédiger un ensemble de lignes directrices pour les utilisations appropriées de l'intelligence artificielle. L'entreprise a précisé qu'elle ne l'utiliserait pas pour des armes ou pour la surveillance qui viole les droits de l'Homme, mais continuera à travailler avec les gouvernements et les militaires.
Sundar Pichai décrit 7 principes que devra respecter l'intelligence artificielle chez Google.
-
Être bénéfice socialement
-
Eviter de créer ou de renforcer des biais injustes
Des biais peuvent être entretenus par les contenus des bases de données utilisées et les algorithmes. «
Nous chercherons à éviter les impacts injustes sur les personnes, en particulier ceux liés à des caractéristiques sensibles telles que la race, l'ethnicité, le genre, la nationalité, le revenu, l'orientation sexuelle, la capacité et les croyances politiques ou religieuses
», écrit Sundar Pichai. -
Être développée et testée de façon sécuritaire
Des pratiques prudentes seront adoptées afin d'éviter de causer involontairement des préjudices. Par exemple, dans les cas appropriés, les technologies d'intelligence artificielle seront testées dans des environnements restreints et leur fonctionnement sera surveillé après leur déploiement.
-
Rendre des comptes
Les systèmes d'intelligence artificielle doivent offrir des possibilités appropriées de rétroaction, d'explications pertinentes et d'appel. Ils doivent être sous la direction et le contrôle humains appropriés.
-
Incorporer des principes concernant la vie privée, la transparence et le contrôle des données
-
Maintenir des normes élevées d'excellence scientifique
Les outils d'IA ont le potentiel de débloquer de nouveaux domaines de recherche scientifique et de connaissances dans des domaines critiques comme la biologie, la chimie, la médecine et les sciences de l'environnement. «
Nous travaillerons avec un éventail d'intervenants pour promouvoir un leadership réfléchi dans ce domaine, en nous appuyant sur des approches scientifiques rigoureuses et multidisciplinaires.
» -
Être mise à disposition pour des utilisations conformes à ces principes.
Google travaillera à limiter les applications potentiellement préjudiciables et abusives.
En plus de ces objectifs, Google ne concevra pas et ne déploiera pas d'intelligence artificielle dans les domaines d'application suivants :
-
Technologies qui causent ou sont susceptibles de causer un préjudice global. Lorsqu'il y a un risque important de préjudice, Google n'agira que s'il est évalué que les avantages l'emportent largement sur les risques, et incorporera des contraintes de sécurité appropriées.
-
Armes ou autres technologies dont le but principal ou le résultat de la mise en œuvre est de causer ou de faciliter directement des blessures aux personnes.
-
Technologies qui recueillent ou utilisent des informations pour la surveillance en violation des normes internationalement acceptées.
-
Technologies dont le but est contraire aux principes largement acceptés du droit international et des droits de l'homme.
Google a parié son avenir sur l'intelligence artificielle, et les dirigeants de l'entreprise croient que cette technologie pourrait avoir un impact comparable au développement d'Internet, souligne le New York Times.
Pour plus d'informations sur l'intelligence artificielle et l'éthique, voyez les liens plus bas.
Psychomédia avec sources : Blog Google, New York Times.
Tous droits réservés.