La déontologie algorithmique

No Comments

L’émergence des algorithmes dans la vie quotidienne a accompagné le renouveau des questions éthiques et déontologiques, sans pour autant que ces phénomènes soient liés. Pourtant, analyser ces questions en les mettant en regard l’une de l’autre peut mener à des réflexions intéressantes.

Source

Si l’on peut mettre de côté la question de l’éthique de l’algorithme, car l’éthique présuppose une pensée autonome (condition indispensable à la libre décision) ainsi que la connaissance du bien et du mal1, celle de la déontologie peut être évoquée sans être une pure spéculation intellectuelle : de plus en plus d’éléments de notre vie quotidienne sont régis par des algorithmes (dont les objets autonomes) et peuvent donc être confrontés à ce que nous appelons des cas de conscience. C’est d’ailleurs le cas pour les voitures autonomes dont l’algorithme peut être amené à décider à la place du conducteur2, l’éthique devant, pour sa part, intervenir en amont de la conception de l’algorithme.3

Dans des situations délicates qui soulèvent des questions de conscience, la déontologie peut être une aide précieuse à la décision. Une preuve de son existence et de sa mise en œuvre consiste dans les différences entre la théorie (ce qui devrait être fait) et la pratique (ce qui est fait) dues aux contingences, au discernement de la personne et à son libre-propos individuel.

La question qui se pose est alors de savoir si l’algorithme est en mesure de discerner.

La première réponse qui vient à l’esprit est qu’il ne discerne vraisemblablement pas, car l’algorithme est une suite d’instructions codifiées qui mettent en œuvre un processus déterminé répondant à une ou plusieurs questions posées. Nous voyons donc que, dans ce cas, le questionnement personnel n’existe pas : soit le problème a été codé dans l’algorithme et une réponse prédéfinie y sera apportée, soit il n’y réside pas et la question restera sans réponse.

Un cas particulier peut être celui de l’auto-apprentissage des machines. Dans la mesure où elles apprennent, ne sont-elles pas également susceptibles de devoir décider (et donc d’apprendre) dans des situations proches de nos cas de conscience, et développer ainsi une déontologie propre ? En fait non, car l’auto-apprentissage est lui aussi le reflet des règles qui ont été implémentées, et en aucune façon le fruit d’une pensée autonome.

De cela nous déduisons alors que, s’il existe des différences entre théorie et pratique dans le cadre de la déontologie humaine, cela ne peut être le cas pour les objets pilotés par des algorithmes, car ces derniers ne font qu’appliquer machinalement ce qui est implémenté en eux.

Enfin, la déontologie n’est pas une science expérimentale qui apprend de ses erreurs. Elle repose sur un certain nombre de principes qui ne doivent pas être négociés au gré des circonstances.

Envisager la question pour les algorithmes mène à la soulever également dans le cas du big data dont une des caractéristiques est de mettre les personnes en équations, ou plutôt de les réduire à un certain nombre d’actes (révélés par les traces électroniques) à partir desquels la personne est recomposée algorithmiquement.

Dans la mesure où le big data est utilisé pour anticiper des situations délicates et réduire l’incertitude du décideur, le risque est alors grand qu’apparaisse une déontologie anticipatrice aux termes de laquelle toute intention serait estimée coupable, quand bien même aucun passage à l’acte (ou commencement d’exécution) ne viendrait la concrétiser.

Comme le big data se base sur des faits avérés pour en déduire une probabilité d’action, le fait qu’il ne prenne pas en compte le désistement volontaire (quels en sont les indices ?), est effectivement de nature à changer la donne en matière de déontologie.

En effet, le champ de cette dernière se déplacerait alors de la commission d’actes à leur simple évocation intellectuelle : « la préemption dispense donc à la fois de la désobéissance, du jugement et de la sanction, tout en rendant les normes à la fois indétectables et indiscutables4. » Cette déontologie nouvelle s’appliquerait uniformément à chaque personne sensée la mettre en œuvre, et toute inobservance serait uniformément châtiée, quels qu’en soient l’auteur et les circonstances puisque les algorithmes « nous dispensent de nous intéresser aux causes des phénomènes au profit d’une logique purement statistique, inductive5 »

Cela réglerait cependant la question de ceux qui regrettent que les décisions qu’ils ont prises sont (parfois) passibles des tribunaux, au motif que les juges demandent toujours des comptes après l‘action. Mais c’est la nature du compte-rendu que d’avoir lieu après l’action…


1Bien que ce sujet semble soumis à débat : « Le problème évidemment c’est que dans leur objectivité autiste, les machines ne sont pas (encore) dotées de réflexivité éthique. » A. Rouvroy, in Le droit à la protection de la vie privée comme droit à une avenir non pré-occupé, condition de la survenance du commun, p 7.

3« Une des pistes les plus intéressantes passe par l’élaboration et la mise en place d’une modélisation adaptée pour analyser, comprendre et traiter ces grandes quantités de données complexes. Une modélisation « éthique », en quelque sorte. (…) Or il est parfaitement possible d’imaginer une modélisation éthique des données complexes, et ce pour une raison qui tient au fonctionnement même du datamining. Car les algorithmes inductifs qui sont au cœur des Big Data sont animés par une logique étonnamment proche de la « sagesse pratique » qui est au cœur de l’éthique.  » Jérôme Béranger in http://www.paristechreview.com/2014/12/22/big-data-ethique/

4Antoinette Rouvroy, Le gouvernement algorithmique ou l’art de ne pas changer le monde, p 1.

5Id., p 2.

Categories: algorithme Étiquettes : ,

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

eighty one ÷ = nine