Éthique de l’IA ou IA éthique ?

Éthique de l’IA ou IA éthique ?

Un courant de pensée qui soutient que l’intelligence artificielle est avant tout une « philosophie réalisée par d’autres moyens », et non une technologie, doit inévitablement se confronter au débat éthique qui se déroule depuis des années sur les responsabilités, les choix moraux et les décisions que l’avènement de ces systèmes exigera. En même temps, ce n’est pas un choix facile : le débat, ou plutôt les débats éthiques sur l’IA sont si nombreux et variés qu’ils découragent une approche philosophique, précisément parce qu’ils sont trop « éthiques », et permettez-moi de le dire sans aucune ironie.

En effet, dans presque toutes ces discussions, on entend par « éthique » une réflexion morale sur le comportement, les responsabilités, les droits et les valeurs ; et tout cela, bien que correct, est également vide de sens si l’éthique n’est pas considérée en même temps non pas comme « une branche » de la philosophie, mais comme Philosophie et rien d’autre. La spécialisation par problèmes, ou par domaines d’études, ne fonctionne pas en philosophie, tout est tenu et doit être tenu ensemble, sous peine de tomber dans l’édification ou la contradiction. Les spécificités du débat éthique ne peuvent être séparées du reste de la vérité, et c’est dans cette unité concrète que réside la différence entre une vérité philosophique et les autres types de vérité. L’oubli de cette unité spécifique produit deux résultats opposés et pourtant identiques : d’une part, le débat éthique gravit le chemin de l’abstraction (comme dans le fameux dilemme du tramway[1] et d’autres problèmes comparables à la théorie des jeux) ; ou bien la soif de concret se satisfait par des solutions pragmatiques qui perpétuent l’existant à un moment où s’annonce une révolution politique, économique et sociale comparable à la révolution industrielle du XVIIIe siècle.

Au cours de notre discussion, nous ne manquerons pas de souligner ces deux résultats lorsque nous y serons confrontés.

[1] PATRICK LIN, « L’éthique des voitures autonomes », dans The Atlantic, 2013.

INTELLIGENCE ARTIFICIELLE ET APPRENTISSAGE AUTOMATIQUE

La plupart des questions éthiques, notamment au niveau de divulgation scientifique, concernent les « biais « [1]des algorithmes d’apprentissage automatique. Ces algorithmes, qui fonctionnent sur des réseaux neuronaux, apprennent en extrapolant sur des grandes quantités de données toutes les corrélations et les tendances qui ne sont pas immédiatement apparentes. Une fois « entraînés », ils sont utilisés pour prédire les évolutions possibles sur de nouvelles données homogènes à celles sur lesquelles l’entraînement a eu lieu.

Le problème, bien sûr, est la difficulté, voire l’impossibilité, de rendre transparents les paramètres sur lesquels se basent les prévisions ; une simple rétro-ingénierie ne permet pas en effet de reconstruire les auto-modifications de l’algorithme, ce qui les fait définir à juste titre comme des « boîtes noires » sans logique compréhensible. Des fleuves d’encre ont été dépensés sur les solutions possibles à ce problème, qui commence par la qualité des données utilisées pour la formation, mais implique également les mathématiques complexes régissant les choix d’auto-apprentissage.

L’un des cas les plus frappants et les plus connus est celui de l’algorithme développé en interne par Amazon pour sélectionner les candidats à des postes de spécialistes techniques.

« Une fois mis en œuvre, ce logiciel devait utiliser des algorithmes d’intelligence artificielle sophistiqués pour apprendre des traits clés à partir des CV des candidats retenus sur une période donnée et rechercher des caractéristiques similaires dans les CV envoyés en vue d’une présélection « [2]

Après un certain temps, cependant, on s’est rendu compte que l’algorithme considérait (négativement) les CV des candidates, probablement parce qu’un grand nombre de CV essentiellement masculins avaient été utilisés pour son apprentissage. Amazon, visiblement sensible à la question, a annoncé l’abandon pur et simple du programme. Considérer le genre comme l’un des éléments pris en compte pour la sélection n’a pas été jugé approprié, sans compter que juridiquement c’était dangereux. Il convient de noter que la simple suppression de toute indication de sexe dans les CV n’a pas été jugée suffisante, car l’algorithme pouvait encore l’extrapoler à partir d’autres données apparemment neutres.

La courte histoire de l’apprentissage automatique est bien fournie avec des épisodes comme celui-ci. Et une fois les soupçons éveillés, comment peut-on confier à un tel système la décision d’attribution d’un prêt bancaire, ou les décisions relatives à la probation, ou la fonction d’arbitrage dans les litiges civils, et ainsi de suite ?

Les propositions n’ont pas manqué pour remédier à cette perte de confiance, qui menace également une activité très prometteuse. C’est ce qu’on appelle l’éthique de l’intelligence artificielle :

« La réponse aux agents artificiels non réglementés tend à être de trois types généraux : éviter complètement les algorithmes, rendre les algorithmes sous-jacents transparents ou contrôler la sortie des algorithmes. L’évitement des algorithmes est probablement impossible ; peu d’autres options sont disponibles pour donner un sens au déluge de données actuel. La transparence algorithmique requiert un public plus éduqué, capable de comprendre les algorithmes. Mais les récentes avancées en matière de technologie d’apprentissage suggèrent que même si nous pouvions déconstruire la procédure d’un algorithme, il pourrait être encore trop complexe pour en tirer un sens utile. Les travaux récents de Christian Sandvig soutiennent que la dernière option, l’audit des algorithmes, devrait être la voie à suivre (Sandvig et al., 2014). Certains types d’audits ignorent le fonctionnement interne des agents artificiels et les jugent sur l’équité de leurs résultats. Cela ressemble à la façon dont nous jugeons souvent les agents humains : par les conséquences de leurs résultats (décisions et actions) et non par le contenu ou l’ingéniosité de leur code (pensées). Cette option est plus logique pour les décideurs politiques et fixe la norme d’une éthique de la responsabilité pour les agents artificiels. La réglementation est beaucoup plus simple dans ce contexte » [3]

Ce texte provient de la Rand Corporation, un think tank (groupe de réflexion) extrêmement influent, et ce qu’il dit doit donc être pris au sérieux. Alors, qu’est-ce qui est dit ici ? Tout d’abord, il affirme qu’il est impossible de se passer de ces systèmes, ce qui a de graves implications pour la liberté sociale et politique de l’homme de décider de son propre destin. On écarte ensuite la possibilité de comprendre comment ces systèmes arrivent à leurs conclusions, même pour des personnes instruites, c’est-à-dire qu’on déclare qu’ils sont dotés de liberté (les algorithmes, pas les humains). Enfin, il laisse à l’homme la possibilité de juger les décisions des algorithmes en fonction de son propre sens de l’équité. Il s’agit, selon nous, d’un exemple frappant du pragmatisme que nous avons mentionné dans l’introduction. Demandons-nous par exemple, qui devrait être le juge de l' »équité » d’une décision négative concernant un prêt bancaire. Évidemment ça ne pourrait pas être la personne à qui on a refusé le crédit, et tout aussi évidemment pas la banque qui l’a refusé : on devrait alors confier le jugement à un conseil d’arbitrage externe (et évidemment composé d’humains, s’il s’agissait d’un autre système d’apprentissage automatique, nous en aurions pour l’éternité). Mais alors, on ne voit plus très bien quels seraient les avantages d’utiliser l’apprentissage automatique en premier lieu.

La même question peut être posée dans le cas de l’algorithme d’Amazon. Il a été dit que cela constituait une discrimination à l’encontre des candidates, mais ce qui n’est pas clair c’est qui décide et sur quels paramètres si une décision différente pourrait être considérée comme « équitable ». À partir de quelle proportion de recrutements féminins n’y aurait-il pas d’avertissement avec une enquête conséquente sur la façon dont l’algorithme a pris sa décision ?

Le recours à la loi pour prévenir les erreurs n’améliore pas la situation, malgré l’utilisation de concepts forts pour tenter d’apparaitre inflexible sur ce point :

« Au fond, qui blâmer si un algorithme jette un innocent en prison ou diagnostique un mauvais traitement : l’utilisateur, le mathématicien ou l’entreprise ? Selon Floridi, le point de départ devrait être le concept de responsabilité stricte, « qui stipule qu’en cas de dysfonctionnement grave, c’est le fabricant qui doit prouver son innocence ».[4]

Que la personne condamnée par l’algorithme soit en réalité innocente ne peut être découvert qu’au moyen d’un nouveau procès, et idem pour le traitement diagnostiqué qui s’avère erroné, évidemment seule l’analyse d’un médecin peut l’établir. Si ce contrôle humain ne peut pas toujours être effectué, qui décide des cas à examiner et de ceux qui ne le sont pas ? Si, en revanche, nous décidons de toujours procéder à une double vérification, nous gagnons du temps en n’utilisant aucun algorithme, sans compter que le délai, comme dans le cas de la justice pénale et de ses trois niveaux de jugement, aura à ce stade un rapport qualité-prix très faible.

L’inadéquation de cette approche pragmatique, bien que louable dans ses intentions, doit alors être mesurée par rapport à la promesse de l’IA d’être une « révolution » égale à la révolution industrielle du 18e siècle. Révolution est un mot lourd, que vous devez utiliser avec prudence si vous n’êtes pas un publiciste professionnel. La Révolution industrielle a accompagné la Révolution française, un bouleversement de tous les principes de l’époque ; il est téméraire de croire qu’un tel changement nous attend si la technologie qui l’annonce ne regarde que vers le passé.

[1] Biais est un mot assez étrange, dont l’étymologie est inconnue. Il semble que le mot vienne du vieux français « biais », et désignait à l’origine la tendance d’une balle qui n’est pas parfaitement homogène à s’écarter de la ligne droite. Aujourd’hui, il est pratiquement utilisé comme un synonyme de préjugé.

[2] AKHIL ALFONS KODIYAN, « An overview of ethical issues in using AI systems in hiring with a case study of Amazon’s AI based hiring tool« , 2019, p. 1

[3] OSONDE OSOBA, WILLIAM WELSER IV, „An intelligence in our image“, RAND Corporation, Santa Monica (CA), 2017, p. 25

[4] LUCIANO FLORIDI, interview dans « The Flying Machines », Octobre 2017. Luciano Floridi est l’un des experts les plus cités dans la littérature existante sur les questions éthiques liées à l’intelligence artificielle.

LE BIAIS ET LA CONTRADICTION ÉTHIQUE

Que reste-t-il alors, sinon un sentiment de pessimisme ou de rejet ? Reste l’effort de faire de l’éthique comme on fait de la philosophie, non pas une discipline spécialisée mais une réflexion où les questions éthiques ne sont pas séparées des questions épistémologiques, logiques et ontologiques. Et où le questionnement éthique ne s’aligne pas sur la logique de l’objet d’étude, en l’occurrence l’apprentissage automatique.

Les choses ne sont pas aussi simples, non pas en raison de problèmes techniques ou de la mauvaise foi des acteurs, mais simplement parce que le biais fait partie intégrante de tout algorithme d’apprentissage automatique. En termes philosophiques, la partialité (le bias) est l’essence même de l’apprentissage automatique, et non un défaut de celui-ci. Pour être entraîné à prendre des décisions, un algorithme doit être alimenté en données, et les données sont par essence des préjugés, car elles discriminent l’uniformité en faveur de la différence. Pour qu’il y ait un jugement, il doit y avoir un parti pris, le pre-jugé pre-cède logiquement tout jugement : sinon il n’y a littéralement aucune décision à prendre. Même le choix des données à omettre (par exemple, le sexe des candidats) serait un préjugé, peut-être socialement justifié mais sans aucune valeur de vérité. Pourquoi omettre le sexe et non l’âge ?

Réduire le biais revient à réduire l’algorithme ; l’éliminer reviendrait simplement à l’éliminer. Nous avons vu plus haut que c’est précisément ce qui se passe dans l’approche prétendument pragmatique ; le contrôle de dernier recours que les humains sont censés maintenir aboutit à une perte de temps supérieure à celle initialement économisée, ou à d’autres formes de biais quant aux résultats à revérifier ou non.

Notons au passage que toute solution « corrective » prise sous cet angle ne ferait que perpétuer l’ordre existant, quel qu’il soit. Ce type de risque est particulièrement ressenti par la communauté des juristes, qui savent par expérience comment les principes évoluent dans leur profession. La justice est l’un des domaines les plus conservateurs de l’activité humaine ; en cas de doute, le juge trouve toujours un réconfort dans les décisions passées, mais la philosophie du droit est très claire en laissant toujours la porte ouverte à de nouvelles interprétations, même radicales, qui peuvent être en avance sur leur temps mais qui seront redécouvertes au bon moment et deviendront courantes. Cette capacité d’écoute, d’examen du contexte et des données, est l’une des meilleures qualités que l’on puisse trouver chez un juge, et elle est coresponsable de toutes les avancées du droit. Et le contexte ne peut jamais être réduit à des données.

Quel est donc le problème éthiquement philosophique de l’apprentissage automatique, le problème fondamental, celui qui subsiste si l’on oublie les accidentalités qui le font naître ?

Reprenons le cas de l’algorithme d’Amazon, en oubliant un instant le scandale de la discrimination :

« L’outil de recrutement expérimental a utilisé l’intelligence artificielle pour noter les candidats de une à cinq étoiles, tout comme les clients d’Amazon notent les produits. » [1]

Les candidats masculins (et féminins !) ont ainsi été assimilés aux produits que l’on achète sur Amazon. Évidemment, l’idée derrière un tel système était qu’un candidat est une simple pièce à insérer dans un engrenage mécanique, et en fait, le paramètre utilisé pour former l’algorithme était les CV reçus précédemment de candidats qui avaient été embauchés et dont l’embauche avait été jugée réussie. Les êtres humains apprennent non seulement de leurs succès mais aussi de leurs échecs, et il devrait en être de même pour les entreprises si elles sont des lieux de communauté humaine et non de simples mécanismes. Le choix de n’enseigner à l’algorithme que des success-stories montre encore une fois une vision où un individu n’est que la somme de ses actes et pas aussi la capacité à s’améliorer, bref une vision de l’être humain comme un mécanisme.

Il ne s’agit pas ici de critiquer la politique spécifique du département des ressources humaines d’Amazon, mais de comprendre que cette vision de l’être humain correspond exactement à l’idéologie de l’apprentissage automatique, idéologie qui transpire clairement des cadres théoriques de cette discipline. L’être humain, seul ou en société, est théorisé comme essentiellement répétitif, prévisible dans ses actions, et comme pouvant être étudié comme tout autre objet de la nature car soumis à des lois (internes, psychologiques, sociales, etc.) de nature scientifique. En bref, elle est conçue comme dépourvue de liberté, une liberté qui est au contraire reconnue par l’algorithme même chargé de l’étudier, puisque cet algorithme est au contraire reconnu comme ayant la capacité de s’auto-modifier dans le temps sans que les causes de ces auto-modifications soient identifiables ( » la boîte noire « ), comme pour dire que les auto-modifications ne sont pas le résultat d’un processus causal déterministe, c’est-à-dire qu’elles sont le résultat d’un choix libre. Dans des travaux antérieurs, nous avons déjà indiqué cette caractéristique de l’apprentissage automatique[2], qui se reflète également dans le remplacement de « Artificiel » par « Machine[3] « .

Prenez les « Lignes directrices éthiques pour une IA digne de confiance » de la Commission européenne, certainement l’un des efforts institutionnels les plus impressionnants pour trouver des solutions acceptables. Il y est dit :

« Le fondement unissant ces droits peut être compris comme étant enraciné dans le respect de la dignité humaine, reflétant ainsi ce que nous appelons une « approche anthropocentrique » dans laquelle l’être humain jouit d’un statut moral unique et inaliénable de primauté dans les sphères civile, politique, économique et sociale. » [4]

La hauteur incontestable de ces concepts se heurte, précisément en raison de leur haute valeur, à la conception de l’homme que prône l’apprentissage automatique. On ne peut pas défendre de tels principes et prétendre en même temps que l’être humain est une machine à penser, que sa conscience phénoménale n’existe pas ou n’est qu’une illusion, que les neurones sont la cause des émotions et des sentiments humains[5]. Il y a une contradiction entre le « statut moral unique et inaliénable de primauté dans les domaines civil, politique, économique et social » que l’on veut préserver et une technologie (l’apprentissage automatique) qui nie cette primauté, qui réduit l’apprentissage à un calcul statistique, qui se présente comme un simple  » membre mécanique  » de plus pour soutenir l’homme, à la différence que le membre à remplacer n’est pas une jambe ou un bras ou même le cœur, mais notre cerveau.

Expliquer la contradiction, la mettre en évidence dans sa forme pure, telle est la (seule) tâche d’une éthique philosophique. C’est un travail de longue haleine, qui exige des philosophes qu’ils aient la patience d’étudier l’intelligence artificielle jusque dans ses aspects technologiques détaillés, et des chercheurs en intelligence artificielle qu’ils comprennent ce qu’est un questionnement véritablement éthique et philosophique. Platon a dit que ce n’est que lorsque les rois seront philosophes et les philosophes seront rois qu’il y aura un gouvernement parfait. De la même manière, nous disons qu’une intelligence artificielle éthique ne sera possible que lorsque les chercheurs en IA seront des philosophes et que les philosophes seront des chercheurs en IA.

[1] JEFFREY DASTIN, “Amazon scraps secret AI recruiting tool that showed bias against women”. In: https://www.reuters.com/article/ us-amazoncom-jobs-automation-insight/ amazon-scraps-secret-ai- recruiting-tool-thatshowed -bias-against-women-idUSKCN1MK08G (2018)

[2] GIOVANNI LANDI, L’Intelligenza Artificiale come Filosofia, Trento, Tangram Edizioni Scientifiche, 2020

[3] GIOVANNI LANDI, “Machine and Artificial Consciousness” in www.intelligenzaartificialecomefilosofia.com, pubblicazione autonoma, 2020.

[4] Édité par le groupe d’experts de haut niveau sur l’intelligence artificielle, p. 11, avril 2019.

[5] Qu’il soit clair que nous n’avons nullement l’intention d’éveiller des soupçons sur les opinions ou les sentiments des experts cités ici, mais seulement de rapporter fidèlement ce que la théorie de l’Intelligence Artificielle (qu’il s’agisse de la Philosophie de l’Esprit ou plus généralement des Sciences Cognitives) énonce explicitement. Nous renvoyons à nos travaux précédents – www.intelligenzaartificialecomefilosofia.com – pour un examen spécifique de ces déclarations.

CONCLUSION

De la dernière phrase du chapitre précédent, il est facile de voir que l’on ne trouvera dans ce texte aucune proposition, solution, réponse ou suggestion qui se réfère aux questions sur l’éthique de l’Intelligence Artificielle. Et d’ailleurs, pourquoi ces questions sont-elles qualifiées d' »éthiques » ? Après tout, il s’agit de questions sociales, juridiques, économiques et, en définitive, politiques, qui doivent faire l’objet d’un débat public selon les règles de la démocratie. L’opinion de chacun doit pouvoir compter avec le même poids, il n’existe pas de compétence « éthique » spécialisée, nous ne parlons pas d’un domaine scientifique (comme la biochimie ou la météorologie). Agir autrement nous mènerait sur un chemin dangereux. Voyons pourquoi :

« De plus, argumente Floridi, une deuxième analogie remonte au droit romain et concerne la relation entre le maître et l’esclave dans la Rome antique : bien que l’esclave soit évidemment plus intelligent que n’importe quel robot que nous ne pourrons jamais construire, lorsqu’il commettait un crime, la responsabilité juridique et économique incombait au propriétaire. Floridi conclut : « Les Romains savaient très bien que s’ils rejetaient toute la responsabilité sur les esclaves, ils n’auraient aucun compte à rendre. De cette façon, cependant, on s’assure que le propriétaire est prudent et garde la situation sous contrôle. Ce qui n’a évidemment pas empêché l’esclave d’être crucifié… « [1]

Cela semble une solution adéquate, pragmatique à souhait, c’est pourquoi Floridi parle d’analogie. En outre, il y a la garantie qui nous vient des Romains, peuple notoirement pratique et peu philosophique, et de grands innovateurs en matière de droit. Mais la contradiction évidente du raisonnement, à savoir que si l’esclave n’est pas responsable, il ne doit pas être crucifié, la solution éthique ne la met pas en évidence, précisément parce qu’il s’agit d’une éthique totalement étrangère à la philosophie. L’objectif de préserver l’existant (l’esclavage) rend la solution éthique elle-même philosophiquement non éthique !

De même, il est philosophiquement contraire à l’éthique de plaider en faveur de l’acceptation sociale de l’apprentissage automatique sur la base des « coûts d’opportunité manqués » que nous aurions autrement à payer. En substance, nous devrions calculer le degré de liberté individuelle et sociale que nous sommes prêts à abandonner en échange de certains avantages que l’apprentissage automatique nous apporterait.

Le problème n’est pas que ces « coûts d’opportunité manqués » soient évalués différemment selon les personnes, ni qu’il existe une formule pour calculer le bénéfice commun au-delà des individus. Le problème philosophique (et éthique) est que même si les avantages sont calculables, la liberté ne l’est pas, précisément parce que l’homme est porteur de cette primauté mentionnée ci-dessus. Quantifier la liberté, c’est s’aligner sur la même idéologie du Machine Learning que nous avons indiquée plus haut, c’est adopter des solutions que nous pouvons aussi qualifier d’éthiques mais qui philosophiquement ne le sont pas.

Inversement, cela signifie que le raisonnement inverse est tout aussi contraire à l’éthique : une société qui renoncerait entièrement à l’apprentissage automatique et à l’intelligence artificielle au nom de la liberté quantifierait cette dernière exactement de la même manière. Et c’est une fois que l’on s’en rend compte que la voie est ouverte à une « intelligence artificielle éthique « [2], dans laquelle une société responsable et libre domine ses productions et ses technologies au lieu d’être dominée par elles.

[1] LUCIANO FLORIDI, interview dans « The Flying Machines », octobre 2017. Luciano Floridi est l’un des experts les plus cités dans la littérature existante sur les questions éthiques liées à l’intelligence artificielle.

[2] En opposition à diverses éthiques de l’intelligence artificielle

Leave A Comment