2012 - Il devient de plus en plus urgent de doter les machines d'un sens de la moralité, soutient Gary Marcus, chercheur en psychologie à l'Université de New York, dans le New Yorker.
Les autos sans conducteurs de Google sont déjà légales dans trois États américains (La Californie, la Floride et le Nevada), rapporte-t-il. Ces autos automatiques deviendront éventuellement (mais ne le seraient pas encore) capables de conduire mieux et de façon plus sécuritaire que les humains: pas d'alcool au volant, pas de distraction, de meilleurs réflexes et une meilleure conscience (via des communications de réseaux) des autres véhicules.
Dans 2 ou 3 décennies, prédit-il, la différence sera si grande entre la conduite automatique et humaine qu'il pourrait devenir immoral de laisser les humains conduire.
Il ne sera plus facultatif, explique le chercheur, de doter les machines de systèmes éthiques. Votre auto roule sur un pont, donne-t-il en exemple, lorsqu’un autobus transportant des dizaines d'enfants croise son chemin. L'auto doit-elle faire une embardée risquant la vie de son passager (« vous ») ou continuer, mettant la vie des enfants à risque ? Si la décision doit être prise en l'espace de millisecondes, ce sera l'ordinateur qui devra décider.
Ces problèmes seront encore beaucoup plus pressants, dit-il, en ce qui concerne les robots militaires. Quand pourrait-il être éthique d'envoyer des robots à la place des soldats ? Bien que plus vites, plus forts et plus fiables que les humains, ils manqueraient cruellement de compassion, comme l'a souligné The Human Rights Watch dans un rapport publié plus tôt cette semaine. L'organisation appelle à une interdiction totale du développement, de la production et de l'utilisation d'armes entièrement autonomes. Pour le psychologue, cette proposition est tout à fait irréaliste : le Pentagone est peu susceptible de renoncer à son énorme investissement dans les soldats robotisés (les drones ne seraient qu'une première génération) ; et peu de parents préfèreraient envoyer leurs enfants au combat si les robots étaient une alternative.
Il est urgent de se mettre à la tâche de doter les machines de règles éthiques, dit-il, car « nous n'avons presque aucune idée de comment faire
».
Certains modèles de règles ont été élaborés, notamment à partir des trois fameuses lois d'Isaac Asimov. Outre les problèmes inhérents à ces modèles eux-mêmes, les problèmes techniques sont immenses : l'intelligence artificielle devra évoluer considérablement avant que des règles aussi abstraites puissent être encodées dans des logiciels.
Mais non seulement cela, dit-il, l'éthique humaine elle-même est en cours d'élaboration (work-in-progress). « Nous confrontons des situations pour lesquelles nous n'avons pas de codes bien développés (tels que celles concernant la fin de vie) et nous n'avons pas besoin de regarder loin en arrière pour trouver des cas où nos codes étaient douteux ou pires (ex. les lois permettant l'esclavagisme et la ségrégation).
»
Comme Colin Allen, un pionnier en matière d'éthique pour les machines, l'a dit : « Nous ne voulons pas en arriver au point où nous aurions dû avoir cette discussion il y a 20 ans
», souligne le chercheur.
Sur le site du The New Yorker : Moral Machines.
Psychomédia
Tous droits réservés