IA et le droit économique au 21e siècle

Auteur/autrice de l’image

IA et le droit économique au 21e siècle

de notre experte IA & DROIT, Marina TELLER

Le droit économique a un premier trait commun avec l’intelligence artificielle (IA) : l’un comme l’autre achoppent sur une définition qui leur soit unique et consensuelle. Si le droit économique peut, probablement, « vivre sans définition »[1], la notion d’intelligence artificielle doit recevoir néanmoins une acception commune si l’on ambitionne d’en mesurer pleinement tous les enjeux juridiques. L’intelligence artificielle suscite un questionnement juridique des plus riches et l’appel aux méthodes et aux valeurs qui innervent le droit économique semble particulièrement indiqué pour y apporter des éléments de réponse[2].

  1. À la recherche d’une définition

L’intelligence artificielle désigne la partie de l’informatique qui vise la simulation des facultés cognitives humaines. Emprunt ancien au latin classique intellegentia, l’intelligence est l’action de comprendre et, par extension, l’entendement, la bonne entente, le commun accord. Sa racine étymologique renvoie à l’idée du choix, à ce qui permet de cueillir et de choisir[3]. Quant à l’adjectif « artificiel », deux sens lui reviennent : il signifie d’abord « produit par les conventions, un code, agissant par des processus automatiques »[4]. Il est doté d’une seconde valeur, à la subjectivité péjorative, qui correspond à « factice », sans naturel ni simplicité, voire arbitraire. L’adjectif renvoie donc à ce qui échappe à la nature et au hasard, avec le risque de l’arbitraire… Prudence donc ! Le paradoxe est que le terme « IA » frappe les esprits par l’évocation de l’intelligence, alors que c’est bien davantage l’adjectif artificiel qui devrait guider notre compréhension du concept. Dès lors, l’intelligence qui en résulte est de moins en moins cette capacité à exercer un choix, à « cueillir et choisir ».

  1. Une définition à deux dimensions

D’un point de vue juridique, nous retiendrons la définition de l’intelligence artificielle proposée dans la communication de la Commission européenne sur l’IA[5] : « L’intelligence artificielle (IA) désigne les systèmes qui font preuve d’un comportement intelligent en analysant leur environnement et en prenant des mesures – avec un certain degré d’autonomie – pour atteindre des objectifs spécifiques. Les systèmes dotés d’IA peuvent être purement logiciels, agissant dans le monde virtuel (assistants vocaux, logiciels d’analyse d’images, moteurs de recherche ou systèmes de reconnaissance vocale et faciale, par exemple) mais l’IA peut aussi être intégrée dans des dispositifs matériels (robots évolués, voitures autonomes, drones ou applications de l’Internet des objets, par exemple) ». Cette définition a été élargie[6] pour clarifier certains aspects de l’IA qui est à la fois une discipline scientifique et une technologie dotée de rationalité[7]. L’appréhension de l’IA suppose donc de couvrir un vaste domaine technologique et scientifique, dont le dénominateur commun est le recours à l’algorithme et à la statistique. La notion d’algorithme est un point clef, au centre d’un ensemble constitué par plusieurs autres notions structurantes, telles que les data, metadata, big data, database, agrégation de données, minage de données… Ces notions, qui nous paraissent relever du langage informatique, devront être analysées avec le prisme du droit, afin d’y trouver une correspondance avec le langage juridique.

  1. Au-delà de la question scientifique, une question de société

Les batailles de l’IA sont, avant tout, d’ordre scientifique et les fronts sont multiples : les progrès accomplis en matière de robotique, de véhicules autonomes, de traitement de la parole et de compréhension du langage naturel sont vertigineux[8]. Très vite, nous percevons que les progrès de l’IA ont pour vocation de révolutionner les interactions sociales, la communication, le déplacement, la connaissance… C’est donc une révolution qui s’annonce être tout aussi sociétale que scientifique. L’IA nous pose ainsi des défis majeurs et renouvelle la sociologie du numérique[9] : avec elle, se dessine une nouvelle mythologie[10] assise sur le pouvoir statistique, devenu substitut des sciences[11]. Au cœur du système, figurent le big data[12] et les données qui oscillent de l’infiniment grand vers l’infiniment petit avec les nouveaux systèmes d’information[13].

  1. Au-delà de la question de société, une question de droit(s)

Le système juridique ne pouvait rester à l’écart d’un tel bouleversement car l’IA soulève une multitude de questions de droit. Nul doute que des réponses seront apportées, en temps et en heure, à chacune des difficultés qui se poseront, secteur par secteur[14]. Il faut aussi envisager l’hypothèse selon laquelle le changement de paradigme serait tellement radical qu’il ne suffirait plus uniquement de penser aux droits dans l’IA, mais d’envisager une réponse juridique d’ampleur consistant à proposer un « droit de l’IA » qui répondrait de manière globale aux enjeux éthiques[15] et d’ordre public[16].

  1. Les droits dans l’IA et le droit de l’I.A

L’utilisation des systèmes d’IA peut porter atteinte à un nombre élevé de droits fondamentaux (songeons notamment à la liberté d’expression, à la non-discrimination, à la protection des données personnelles et de la vie privée, etc.). Elle peut aussi porter atteinte à la sécurité des personnes, tout en perturbant le régime de responsabilité dans les situations où l’IA se trouve intégrée dans des produits et services. Le droit se trouve donc fortement mis au défi et nous pensons que le droit économique doit apporter sa contribution aux débats d’idées et de valeurs qui sont en train de se jouer, à peine maqués sous l’apparente technicité des questions rencontrées. Parce que les valeurs humanistes ont toujours été l’horizon, plus ou moins affiché, des auteurs de l’école de Nice[17] de droit économique, une analyse substantielle des enjeux de l’IA permet de mettre à jour des lignes de fracture, des rapports de force et de pouvoir[18] sur lesquels s’affrontent plusieurs conceptions de l’IA, porteuses elles-mêmes de valeurs différentes.

Dans un premier temps, nous verrons que le droit économique est un bon analyseur des enjeux actuels de l’IA, en ce qu’il mobilise une analyse substantielle[19] des faits (§ 1). Nous verrons ensuite que le droit économique se veut aussi un point de départ fécond pour envisager le droit de demain : l’encadrement de l’IA suscite un renouvellement des habitudes de la pensée juridique et, à cet égard, le droit économique est riche de potentialités (§ 2). Aujourd’hui et demain, voyons donc ce que le droit économique a à dire au sujet de l’intelligence artificielle.

[1] V. G. Farjat, « La notion de droit économique », Arch. philo. dr., 1992, p. 27. Nous ne reprendrons pas ici les longs débats sur la notion et le contour d’un droit économique, pas plus que nous répondrons à la question de savoir s’il existe !

[2] Nous rendons ici hommage aux travaux de l’École de Nice de droit économique ainsi qu’à son fondateur, Gérard Farjat. V. G.-J. Martin et J.-B. Racine, « Gérard Farjat et la doctrine », RIDE 2013/4, p. 409.

[3] A. Rey (dir.), Dictionnaire historique de la langue française, Le Robert, 2012.

[4] Ibid.

[5] Communication de la Commission au Parlement européen, au Conseil européen, au Conseil, au Comité́ économique et social européen et au comité des régions, l’IA pour l’Europe, Bruxelles, 25.4.2018, COM(2018) 237 final.

[6] La définition élargie résulte du rapport du Groupe d’experts de haut niveau sur l’intelligence artificielle, Définition de l’IA : principales capacités et disciplines scientifiques, 8 avr. 2019.

  1. https://ec.europa.eu/digital-single-maret/en/high-level-expert-group-artificial-intelligence

[7] La rationalité, telle qu’entendue par les auteurs de référence sur la question : v. notamment S. Russell et P. Norvig, Artificial Intelligence: A Modern Approach, 3e éd., Prentice Hall, 2009.

[8] V. « Intelligence Artificielle : les défis actuels et l’action d’Inria », Livre Blanc INRIA. Ainsi, parmi ces défis actuels, nous pouvons mentionner l’apprentissage automatique, l’analyse des signaux, le web sémantique, la robotique et les véhicules autonomes, les neurosciences et les sciences cognitives, le traitement du langage.

[9] D. Boullier, Sociologie du Numérique, Armand Colin, 2016. V. aussi. L. Godefroy, « Le numérique », dans ce volume.

[10] D. Boyd et K. Crawford, « Critical questions for big data: Provocations for a cultural, technological, and scholarly phenomenon », Information, Communication & Society, 2012, 15(5), p. 662.

[11] Le big data permettrait de remplacer les théories scientifiques en mettant au jour des patterns que la science ne parvient pas à prouver ni à théoriser : V. C. Anderson, « The end of theory », Wired, 16, 23/06/2008 http://archive.wired.com/science/discoveries/magazine/16-07/pb_theory. Adde : M. Graham, « Big data and the end of theory? », The Guardian, 09/03/2012, http://www.theguardian.com/news/datablog/2012/mar/09/big-data-theory.

[12] V. K. Crawford, K. Miltner, M. Gray, « Critiquing Big Data: Politics, Ethics, Epistemology », International Journal of Communications, 2014, vol. 8, Special Section Introduction http://ijoc.org/index.php/ijoc/article/view/2167/1164.

[13] Y. Poullet, La vie privée à l’heure de la société du numérique, Larcier, 2019.

[14] V. récemment, l’approche de la Commission européenne, in Intelligence artificielle – Une approche européenne axée sur l’excellence et la confiance, Livre Blanc, 19 févr. 2020, COM(2020) 65 final :

 https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_fr.pdf.

[15] V. L. Godefroy, « Éthique et droit de l’intelligence artificielle. Osmose ou symbiose ? », Dalloz, 2020, n° 4, p. 231.

[16] S. Merabet, Vers un droit de l’intelligence artificielle, Dalloz, Nelle bibl. thèses, n° 197, juill. 2020.

[17] Sur cette question, v. G.J. Martin et J.-B. Racine, « Gérard Farjat et la doctrine », préc.

[18] Sur ce point, v. : A. Sakho, « Analyse substantielle et relation de pouvoir », RIDE 2013/4, p. 545.

[19] J.-B. Racine et F. Siiriainen, « Retour sur l’analyse substantielle en droit économique », RIDE 2007/3, p. 259. V. aussi, F. Riem, « L’analyse substantielle », dans ce volume.

1 - L'appréhension substancielle de l'IA par le droit économique

Les enjeux de l’IA. – Formellement, l’IA est une technique informatique qui ressort du domaine des sciences dures et du calcul. Substantiellement, l’IA mobilise des données et des algorithmes. Cette interaction soulève de multiples interrogations : un algorithme n’est, en définitive, qu’une « opinion intégrée à des programmes »[1] et, comme tout langage, il comporte ses biais et induit des risques bien établis en termes de discriminations et d’équité[2]. Le recours aux algorithmes est donc un terrain privilégié pour mettre à jour des rapports de domination et de pouvoir, thèmes chers aux auteurs de droit économique[3]. Ces rapports de force résultent de la conjonction entre le pouvoir des données et la puissance des algorithmes (A). Un rééquilibrage des rapports de force implique d’encadrer juridiquement les algorithmes et les données, de manière à ce que leur mise en œuvre ne se fasse pas contre le droit, mais au service de l’État de droit (B).

  1. Analyse substantielle du pouvoir dans l’IA : des data et des algorithmes

La production massive des data et leur captation induisent plusieurs phénomènes : la collecte des historiques de données permet de passer de la prédiction à la prescription. L’autonomie du sujet, en tant que personne dotée de libre arbitre dans les limites de la contrainte juridique, laisse apparaître une autre figure, celle du sujet volontairement asservi et contraint par des règles qui ne seraient plus uniquement juridiques mais qui seraient des règles d’essence technique. L’IA contient en germe l’idée d’une servitude volontaire gouvernée par le mantra « code is law ».

  1. De la prédiction à la prescription : la servitude volontaire

Appliquée au monde numérique, l’intelligence artificielle est l’utilisation des algorithmes pour réaliser la transformation des pratiques numériques (subjectives et individuelles) en base de données (objectives et détachées de l’individu). Son essor a des répercussions majeures sur le fonctionnement des marchés et des individus. L’intelligence artificielle marque ainsi le passage de l’économie de l’information, assise sur des marchés bifaces, à une économie de l’attention, marquée par l’automatisation des consentements, dans ce qui ne serait plus qu’une « servitude volontaire »[4].

Le recours à des algorithmes induit des informations dont la dimension est plus prescriptive que prédictive : ils ne se contentent pas de capter des données pour établir des corrélations, ils façonnent nos attentes et notre représentation du réel. L’expérience du soi se trouve alors « marchandisée » via la collecte massive des données qui marque la disparition du sujet en tant que personne individualisée[5], le sujet s’effaçant au profit d’une réplication numérique de son identité. L’ambition du big data n’est donc plus la compréhension du monde mais la prédiction des événements et des comportements, pour agir par avance sur ceux-là, afin de permettre ou empêcher leur réalisation.

  1. De la « rule of law » à la « rule by code »

Dans le grand théâtre des idéologies, le xxe siècle a vu s’affronter deux visions de la règle et deux façons de l’instrumentaliser, théorisées par l’historien du droit Harlod Berman, professeur à Harvard : le libéralisme économique et la rule of law ; puis le communisme et la rule by law ; dans les deux cas, qu’il s’agisse de règle de droit et de règle par le droit[6], la dimension juridique demeure présente. Mais avec les technologies de l’IA, nous découvrons une nouvelle rationalité de la règle, théorisée par un autre professeur de Harvard, Lawrence Lessig : « code is law »[7]. La règle serait donc devenue une rule by code, ce qui précipiterait l’effacement de la référence à la norme juridique au sein des organisations sociales et politiques, au profit d’une référence technologique et mathématique[8]. C’est encore ce que d’autres ont pu qualifier de « gouvernementalité algorithmique »[9] ou encore de « gouvernance par les nombres », les standards et les indicateurs[10]. Cette bascule accompagne l’éclipse du consentement substantiellement libre et éclairé au profit d’une servitude volontaire.

  1. Vers une analyse numérique du droit ?

La modélisation mathématique a envahi le discours[11] et les méthodes des juristes[12], en touchant leur cœur même, c’est-à-dire les « piliers » disciplinaires : qu’il s’agisse du droit civil et sa notion de causalité[13], du droit public et sa référence à l’ordre public[14], du droit de la concurrence[15] et son souci d’efficience des marchés, du droit judiciaire et l’instant du procès[16]… Aucune branche du droit ne semble pouvoir résister au passage subreptice du qualitatif au quantitatif[17]. Nous pourrions même nous demander si le mouvement qui est à l’œuvre ne serait pas celui d’une « analyse numérique du droit »[18], qui revisiterait chaque branche du droit, chaque catégorie, chaque concept à l’aune de la technique numérique et algorithmique.

  1. Algorithmes et data versus règles de droit

Les dispositifs d’IA ne se contentent pas d’introduire une nouvelle modernité numérique dans notre quotidien : ils ont une réelle portée normative, quoique non visible et ils viennent perturber le corpus juridique auquel ils se posent en concurrents naturels[19]. À titre d’illustration, et sans prétendre à l’exhaustivité, nous pouvons identifier un certain nombre de concepts et de catégories juridiques qui se trouvent renouvelés face au pouvoir algorithmique.

  1. La personne

Le monde numérique est marqué par une dilution des frontières et par l’anonymat. Que devient la personne dans le monde numérique ? La personne est reconstituée par l’agrégation de ses traces numériques, données éparses collectées au gré de sa navigation sur les réseaux. L’individu devient ainsi un profil dont la définition lui échappe[20]. De nouveaux savoirs statistiques, à travers le data mining et de nouveaux pouvoirs statistiques, à travers le profilage esquissent des dangers inédits pour les libertés individuelles[21]. L’IA questionne jusqu’à l’essence même de la personne : la figure du robot doté de personnalité juridique, invoquée un temps par le Parlement européen, a suscité les plus grandes réserves de la part de la communauté des juristes[22].

  1. La sécurité, le risque et la responsabilité

Traditionnellement, la sécurité passe par la confiance. Or, ces deux notions sont transformées par l’élimination des tiers de confiance sur les réseaux distribués. Le tiers est un « agent d’écart », qui opère une triangulation des intérêts. La société numérique réduit cette figure à une opération réticulaire, liant directement les parties contractantes entre elles, sans passer par les tiers de confiance traditionnels. Incidemment, le rapport aux institutions juridiques est modifié car leur sont préférées des interfaces technologiques (telle, par exemple, une blockchain)[23]. Les objets connectés[24] renouvellent notre perception du contrat et de la responsabilité, en particulier parce qu’ils peuvent s’articuler avec des blockchains et des smart contracts[25].

En effet, le recours à ces derniers traduit un schéma contractuel dans lequel la liberté individuelle et le consentement sont devenus indifférents, dès l’exécution du protocole : à la volonté de respecter la norme s’est substituée une application automatique de la norme qui est, de facto, respectée car elle est intégrée à l’objet. C’est le règne d’une prévention totale, d’une exécution automatique et d’une surveillance globale[26]. À l’allocation optimale des ressources succède une allocation automatique des ressources. Cela rejoint une autre évolution, induite par l’IA et les statistiques, qui affecte le raisonnement déductif : les algorithmes de deep learning remplacent la causalité par la corrélation statistique.

  1. État-plateforme versus pouvoirs privés économiques

Les nouvelles technologies inspirent les États en vue d’optimiser leurs coûts et leur efficacité, tout en tirant profit des immenses banques de données dont ils disposent[27]. Cela a donné naissance au concept d’État-plateforme[28] qui réplique dans la sphère régalienne la logique numérique : open data, analyse de données par l’IA, prise de décision algorithmique[29]. L’État-plateforme use des services de vidéo automatisés[30] à des fins de surveillance et de prévention, en matière de sécurité des populations ou pour des raisons sanitaires. L’application Stop-covid est le cas d’école du recours à des dispositifs numériques et connectés en vue d’assurer le traçage numérique des individus[31]. L’État-plateforme soulève d’importantes interrogations relatives à la souveraineté ; les États sont mis au défi par les géants du numérique qui exercent une concurrence normative directe à leur égard. Le droit qui émane des plateformes[32] est une illustration très nette des rapports complexes qui se nouent entre l’État-plateforme et les pouvoirs privés économiques[33].

  1. Les data, point central de l’I.A

Les data deviennent tout à la fois un objet de régulation et une méthode de régulation[34]. À cet égard, elles acquièrent un rôle clef ; pourtant, la réflexion sur la nature juridique de la donnée nous semble encore bien embryonnaire. Elle est appréhendée, dans sa version individuelle ou patrimoniale, en tant que « donnée personnelle » ou « base de données ». Néanmoins, compte tenu de l’importance qu’est amenée à prendre cette notion, comme celle de langage algorithmique[35], il s’agira de construire, tôt ou tard, une définition substantielle de la donnée, qui ne sera pas limitée à la personne dont elle émane ni à sa dimension patrimoniale si elle est considérée comme un actif numérique[36]. L’enjeu est important car derrière la donnée, se trouve la décision[37] qui, en droit, peut prendre les traits de la décision judiciaire[38]. Prenons donc garde au « coup data »[39] permanent.

[1] C. O’neil, Algorithmes, la bombe à retardement, Les Arènes, 2018.

[2] V. P. Bertail, D. Bounie, S. Clemençon, P. Waelbroeck, « Algorithmes : biais, discrimination et équité », Télécom ParisTech, févr. 2019.

[3] M. Salah, « Le pouvoir économique et le droit. Variation sur un thème très niçois », RIDE 2013/4 (t. XXVII), p. 475. Du même auteur, v. « Le pouvoir économique », dans ce volume.

[4] F. Marty et T. Warin, « The use of AI by online intermediation platforms. Conciliating economic efficiency and ethical issues », Delphi, Lexxion, 2020-2019, n° 4, p. 217 ; adde : « Concurrence et innovation dans les écosystèmes numériques à l’ère de l’intelligence artificielle », Concurrences, Institut de droit de la concurrence, 2020, n° 1, p. 36.

[5] F. Cormerais, « Nos usages économiques sur Internet : une nouvelle servitude volontaire », France Culture, émission Entendez-vous l’éco ?, 29 nov. 2017.

[6] H. Berman, « The Rule of Law and the Law-Based State (Rechtsstaat) », The Harriman Institute Forum, 1991, n° 4, p. 1.

[7] L. Lessig, « Code is law. On liberty in Cyberspace », Harvard Magazine, janv. 2000.

[8] M. Teller, « De la rule of law à la rule by code : la blockchain, un projet faustien ? », in Études en l’honneur de Philippe Neau-Leduc, Le juriste dans la cité, LGDJ, Les mélanges, 2018, p. 181.

[9] A. Rouvroy et T. Berns, « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », Réseaux, 2013, n° 177, p. 163.

[10] A. SUPIOT, La gouvernance par les nombres, Cours au Collège de France (2012-2014), Fayard, Poids et mesures du monde, 2015 ; adde : A. Van Waeyenberge et B. Frydman, Gouverner par les standards et les indicateurs, De Hume aux rankings, Bruylant, 2014.

[11] S. Bories, « Et du droit, tu pourras être instruit », Études offertes à Pierre Catala – Le droit privé français à la fin du xxe siècle (Mélanges), Litec, 2001, p. 733.

[12] M. Teller, « À propos du droit et des chiffres : vers de nouvelles « fongibilités ? », Le droit économique entre intérêts privés et intérêt général, Hommage à Laurence Boy, PUAM, 2016, p. 81.

[13] M. Lamoureux, « La causalité juridique à l’épreuve des algorithmes », JCP G, 2016, n° 25, p. 1251.

[14] P. Baumard et N. Kobeissi, « L’algorithme et l’ordre public », Arch. philo. dr., 2015, n° 58, p. 297.

[15] F. Marty, « Algorithmes de prix, intelligence artificielle et équilibres collusifs », RIDE 2017/2, p. 83.

[16] A. Garapon et J. Lassegue, Justice digitale, PUF, 2018.

[17] J.-P. Challine, « Les techniques de modélisation de la connaissance dans le domaine du droit », Documentaliste-Sciences de l’Information, vol. 39, n° 4, 2002, p. 182.

[18] M. Teller, « L’avènement de la Deep Law (vers une analyse numérique du droit ?), in Mélanges Alain Couret, à paraître. Les années 1960 ont connu l’essor de l’analyse économique du droit et la doctrine y avait décelé les ferments d’une transformation profonde du système juridique, dès lors que l’efficience économique devenait la logique sous-jacente à la règle de droit (sur ce thème v. B. Deffains et F. Marty « L’économie du droit », dans ce volume). De la même manière, nous considérons qu’il y a une « analyse numérique du droit » qui risque de dissoudre de l’intérieur la matrice du droit sous l’effet des deep tech. À notre sens, c’est en observant ces phénomènes et en s’y intéressant très concrètement – ie : par le dialogue avec les ingénieurs, codeurs, informaticiens, data scientists – que la doctrine parviendra à éviter que la norme juridique (en grande partie publique) ne soit subvertie pas la norme technique (et privée).

[19] M. Teller, « Du droit et des algorithmes, Libres propos sur la notion d’algorithme, cet impensé du droit », Mélanges AEDBF France VII, 2018.

[20] L. Godefroy, « Pour un droit du traitement des données par les algorithmes prédictifs dans le commerce électronique », D. 2016, p. 438.

[21] V. A. Rouvroy, « La « digitalisation de la vie même » : enjeux épistémologiques et politiques de la mémoire digitale », in Un enjeu de société, Documentaliste-Sciences de l’Information, 2010, vol. 47, p. 34. Ainsi, l’intensification des phénomènes de contrôle à distance et d’anticipation des comportements supprime la distance entre contrôleurs et contrôlés. En lieu et place du contrôle facilement identifiable par les individus dans les sociétés traditionnelles, se multiplient de nouvelles instances de contrôle et de surveillance publiques ou privées largement invisibles, fondamentalement préventives, et donc difficiles à contester pour les individus.

[22] Résol. du PE, 16 févr. 2017, contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL) ; le point 59)f envisage « la création, à terme, d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables, tenues de réparer tout dommage causé à un tiers ; il serait envisageable de conférer la personnalité électronique à tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante avec des tiers ».

[23] M. Teller, « De la rule of law à la rule by code : la blockchain, un projet faustien ? », préc.

[24] V. I. Parachkévova-Racine, J.-B. Racine et Th. Marteu (dir.), Droit et objets connectés / The law and connected objects, Larcier 2020.

[25] A. Favreau, « Smart contract – Approche de droit comparé », Dalloz IP/IT, 2019, p. 10. V. aussi, E. Mouial Bassilana, « Le contrat », dans ce volume.

[26] Nous renvoyons sur cette question à la conférence du professeur Gregory Lewkowicz, « Le droit dans les choses, le futur du droit ? », 27 oct. 2015, Centre Perelman de Bruxelles (https://www.philodroit.be/Le-droit-dans-les-choses-le-futur-du-droit-2011).

[27] Rapport remis à M. le président du Sénat fait au nom de la commission d’enquête sur la souveraineté numérique, 1er oct. 2019 ; P. Türk et C. Vallar, La souveraineté numérique : le concept, les enjeux, éd. Mare et Martin, 2018 ; Comprendre la souveraineté numérique, Cahiers français n° 415, mai-juin 2020.

[28] T. O’reilly, « Government as a Platform », Innovations : Technology, Governance, Globalization, 2011, vol. 6, n° 1, p. 13.

[29] OCDE, Open Government Data Report, 2018, p. 155.

[30] V. la solution proposée notamment par Accenture : https://www.accenture.com/fr-fr/success-solution-police-automated-video-analysis.

[31] C. Lequesne Roth, « Covid-19 et applications de traçage : à la croisée des libertés et des technologies », D. 2020, n° 19, p. 1096.

[32] J. Charpenet, « La corégulation par les plateformes – Le cas des Governemental Request », RIDE 2019/3, à paraître. Adde : R. Van Loo, « The Corporation as Courthouse », YALE J. ON REG., 2016, n° 33, p. 547 : « Corporations design procedures and shape the de facto substantive rules governing the vast majority of consumer disputes ».

[33] Sur la question plus générale des pouvoirs privés économiques, v. G. Farjat, « Les pouvoirs privés économiques », in Souveraineté étatique et marchés internationaux à la fin du 20e siècle. À propos de 30 ans du CREDIMI. Mélanges en l’honneur de Philippe Kahn, Litec, 2000, p. 613.

[34] Cette question est liée au rôle normatif du chiffre et nous renvoyons, sur ce point, à l’important ouvrage d’A. Supiot, La gouvernance par les nombres, préc. Adde : D. Restrepo Amariles et G. Lewkowicz, « De la donnée à la décision : comment réguler par les données et les algorithmes », in Les big data à découvert, CNRS Éditions, 2017.

[35] S. Benjamin, « Algorithms and Speech », U. PA. L. REV., 2013, n° 161, p. 1445.

[36] V. A. Bounfour, Futurs numériques, transformation numérique, du lean production à l’accelution, ESKA, 2016. Évaluer la donnée suppose de la détacher de la personne pour la considérer comme un actif, dans une logique d’appropriation patrimoniale. Cette approche baptisée Data Value Modelling permet aux entreprises de modéliser et d’approcher la valeur de leurs données.

[37] G. Lewkowicz et D. Restrepo Amariles, « De la donnée à la décision : comment réguler par les données et les algorithmes », préc.

[38] A. Garapon et J. Lassegue, Justice digitale, préc. ; K. Benyekhlef et N. Vermeys, « Premiers éléments d’une méthodologie de réformation des processus judiciaires par la technologie », in Les technologies de l’information au service des droits : opportunités, défis, limites, D. Le Métayer (dir.), Bruxelles, Bruylant, 2010.

[39] A. Basdevant et J.-P. Mignard, L’empire des données, Essai sur la société, les algorithmes et la loi, éd. Don Quichotte, 2018. Ce « coup data » est le fait de donner aux données une place prépondérante, sans pouvoir contrôler les mécanismes de collecte, d’analyse et les différentes utilisations qui en sont faites.

2 - Faire face aux enjeux de l'IA : les potentialités du droit économique

  • 2. Faire face aux enjeux de l’IA : les potentialités du droit économique

« Maintenant que l’humanité se trouve à l’aube d’une ère où les robots, les algorithmes intelligents, les androïdes et les autres formes d’intelligence artificielle, de plus en plus sophistiqués, semblent être sur le point de déclencher une nouvelle révolution industrielle qui touchera très probablement toutes les couches de la société, il est d’une importance fondamentale pour le législateur d’examiner les conséquences et les effets juridiques et éthiques d’une telle révolution, sans pour autant étouffer l’innovation »[1]. Cette prophétie n’est autre que celle formulée par le Parlement européen, en janvier 2017, et elle donne le ton de l’importance et de l’urgence de la question. Certains envisagent de bâtir de nouveaux droits fondamentaux, qualifiés de « méta-droits »[2] : droit à l’oubli, droit à la désobéissance, droit à se rendre compte. Un auteur suggère de réécrire de nouvelles lois de la robotique, à l’âge du big data, mêlant droit public et droit privé et créant des obligations de « redevabilité algorithmique », inspirées des règles d’audit comptable et de la comptabilisation des externalités[3]. D’autres proposent une déclaration des droits pour les utilisateurs de plateformes de médias sociaux[4] ou encore l’instauration d’un mécanisme responsability-by-design pour introduire la responsabilité de manière native, au cœur de systèmes d’IA qui ne partagent pas l’expérience humaine de l’intention[5]. Partageant ces propositions, nous souhaitons en ajouter d’autres, inspirées de la méthode et des acquis de la recherche en droit économique.

Dans cette perspective, il nous semble que le droit économique est une source d’inspiration féconde en ce qu’il permet, par une approche auto-poïétique[6], de déconstruire et reconstruire le rapport entre les faits et le droit, pour proposer aux juristes une nouvelle grille d’analyse[7]. Partant de l’origine des difficultés, à savoir les données, le big data doit être repensé pour garantir les droits et les libertés des personnes. Il s’agit donc, dans un premier temps, d’opérer le passage du big data au smart data, en formulant des propositions juridiques permettant sa mise en œuvre (A). Par ailleurs, le respect du droit doit rester une exigence permanente. L’IA génère, à raison, des risques et des craintes multiples : les identifier est une première étape, les dépasser en est une autre. Il s’agit ensuite de renouveler notre approche de l’IA : d’une approche par les risques, nous pouvons ainsi passer à une « approche par les droits » (B).

  1. Du big data au smart data
  2. Biais et données

Le traitement informatique et automatisé du big data soulève des risques de biais[8] et de discriminations de toutes sortes[9] (raciales, genrées, professionnelles, etc.). La qualité de la donnée est donc un sujet essentiel : celle-ci doit être juste, « inclusive » c’est-à-dire représentative de diverses tendances, et fiable dans la durée. En outre, la transparence algorithmique est un leurre car l’algorithme, dans le cadre des processus d’apprentissage supervisés, reste une boîte noire[10]. La communauté de l’IA travaille depuis peu à des méthodes visant à détecter et à atténuer les biais dans les ensembles de données d’entraînement des systèmes d’apprentissage automatique supervisé. Parce que l’algorithme restera toujours structurellement opaque, il est inutile de le penser en termes de transparence[11] ; il faut en revanche déplacer la réflexion en amont, sur les conditions de création des algorithmes, de manière à encoder des principes de bonne gouvernance (telles que l’égalité[12], la possibilité de contester le choix de tel programme, et peut-être même l’aléa en redonnant toute sa place au hasard[13]).

  1. L’éthique et la sécurité natives (by design)

La communauté internationale et tout particulièrement l’Union européenne font la promotion d’une éthique intégrée ab initio dans les dispositifs technologiques et algorithmiques[14]. L’Europe promeut ainsi un principe fondamental de « conception respectueuse de l’éthique » (ethic by design), dans le cadre de laquelle les principes éthiques et juridiques, sur la base du règlement général sur la protection des données, du respect du droit de la concurrence, de l’absence de biais dans les données, sont mis en application dès le début du processus de conception. Un autre principe fondamental résidera dans la « sécurité dès la conception », dans le cadre duquel la cybersécurité, la protection des victimes et la facilitation des activités répressives devraient être prises en considération dès le début du processus de conception. Penser le smart data implique donc de s’interroger sur les conditions ex ante qui assureront une « compliance by design », dès le stade de l’élaboration des bases de données.

  1. De nouvelles références : l’explicabilité et l’interprétabilité

Nous suggérons de remplacer la référence à la transparence des dispositifs algorithmiques de l’IA par deux concepts issus des sciences informatiques : l’explicabilité et l’interprétabilité[15]. Leurs promoteurs y voient de véritables principes fondamentaux car ils sont une porte d’entrée vers la vérifiabilité des résultats, la progression des connaissances, la conformité au droit et, enfin, la confiance[16]. Certes, les notions d’interprétabilité et d’explicabilité laissent de nombreuses questions en suspens[17] ; elles nous paraissent néanmoins plus pertinentes que l’invocation de la transparence. Des auteurs ont notamment montré leur intérêt en matière de credit scoring[18].

  1. Mettre en place un droit d’accès élargi

En nous libérant de la référence à la transparence algorithmique de l’IA, nous proposons d’envisager un principe plus englobant de droit d’accès élargi, applicable au code source et aux bases de données[19]. Cela permettra de mettre en lumière les liens qu’entretient un algorithme avec d’autres systèmes – technologiques ou humains – qui peuvent être tout aussi opaques (par ex. de quel accord commercial secret dépend un algorithme ?). Les travaux de droit économique sur les abus en matière de dépendance économique[20] nous incitent à réfléchir dans cette direction. Le véritable défi consiste donc à tracer les chaînes de décisions logiques qui construisent les algorithmes afin de déterminer quelles institutions et quelles personnes en sont substantiellement responsables, par un droit d’accès élargi[21].

  1. Repenser les droits de la donnée

Le traitement des données concernant des personnes physiques tombe dans le champ d’application du RGPD[22] qui fixe les règles applicables à leur collecte, leur utilisation et leur partage. Si ce dispositif est perçu comme une avancée majeure pour garantir les droits de la personne, il est largement insuffisant pour répondre aux questions que pose l’IA en matière d’utilisation des données[23]. Nous pensons que l’appréhension actuelle de la donnée, telle qu’elle ressort de l’encadrement juridique issu du RGPD ou de textes nationaux[24], est source d’ambiguïtés dans la mesure où elle crée une corrélation entre la donnée et la personne. Il en résulte une approche subjective de la notion de donnée, tournée vers l’exercice des droits de la personne dont elle émane. L’effectivité de ces droits – tels que le consentement, le droit de communication, de rectification, d’oubli – nous paraît douteuse[25]. Il nous semble que l’enjeu est tout autre et que les promesses de l’IA nous exhortent à repenser les droits de la donnée.

  1. Les futurs droits de la donnée

La disponibilité des données est essentielle pour soutenir des applications d’IA puissantes. Pour ce faire, elles doivent répondre à des exigences nouvelles qui dépassent le cadre juridique actuel adossé à l’exercice des droits de la personne. La Commission européenne veut créer un espace européen commun des données afin de faciliter la circulation des flux de données transfrontières[26], dans le respect de la vie privée et du RGPD. C’est le partage des données détenues par les secteurs public et privé qui est en jeu. Pour en accroître les effets, il conviendrait de maximiser l’interopérabilité des données d’un même espace, notamment en prévoyant comme objectif commun d’utiliser des formats de données qui soient ouverts, selon l’acronyme FAIR (faciles à trouver, accessibles, interopérables et réutilisables). Les formats devront être lisibles par une machine, normalisés et documentés, pour les interactions aussi bien entre les secteurs public et privé qu’au sein de chaque secteur et entre les secteurs. Il s’agit là de nouveaux droits de la donnée qui sont indispensables dans des secteurs comme la santé, l’environnement, la mobilité ou encore la sécurité et la finance[27] mais dont la mise en œuvre suscitera des difficultés sérieuses liées à l’articulation d’intérêts divergents : ceux de la personne, tournés vers l’exclusivité et le secret et ceux des utilisateurs de données qui tendent au contraire au partage et à la circulation. C’est l’articulation classique entre intérêts privés et intérêt général, articulation bien connue en droit économique[28].

  1. D’une « approche par les risques » à une « approche par les droits »

Replacer le droit au centre des préoccupations de l’IA, tel est l’objectif d’une régulation fondée sur une « approche par les droits »[29]. Cette approche met en évidence les risques que les systèmes d’IA font peser sur les droits fondamentaux, bien au-delà même des atteintes aux données personnelles[30] ; une fois ces risques identifiés, c’est au système juridique de faire son aggiornamento, afin d’être en adéquation avec les enjeux de l’IA. La question est suffisamment sérieuse pour justifier la proposition de nouveaux droits et de nouvelles méthodes de régulation, permettant de garantir la « contestabilité » de l’algorithme. Cela peut prendre plusieurs formes, que nous développerons succinctement : mettre en place, sous la supervision d’une autorité publique indépendante, des plateformes nationales d’audit permettant de tester le code ; recourir aux outils statistiques qui peuvent permettre une évaluation contrefactuelle ; enfin, généraliser le mécanisme des études impact avant toute mise en circulation de procédé algorithmique.

  1. Les stress-tests algorithmiques

En France, la CNIL envisage une régulation de l’IA assise sur deux « principes fondateurs » : la loyauté et la vigilance[31]. Le premier vise à s’assurer que l’algorithme effectue bien ce qu’il est censé faire, mais aussi qu’il n’entre pas frontalement en opposition avec d’autres grands intérêts collectifs. Le second est censé répondre au fait que les outils de machine learning peuvent évoluer en permanence, en fonction des données qui les alimentent. Développer l’audit des algorithmes est une manière d’assurer le respect de ces deux principes fondateurs. Cela suppose néanmoins de développer la capacité de la puissance publique à effectuer des « stress-tests sur des algorithmes », par le biais d’une plateforme nationale d’audit. Ici, l’audit n’a pas pour objectif « d’ouvrir les codes sources » ; il prend la forme de contrôles ex post des résultats produits par les algorithmes, de tests aux moyens de profils fictifs, en mobilisant des techniques d’audit reposant sur la rétro-ingénierie. Il nous semble essentiel, pour les temps à venir, que les régulateurs et autorités de contrôle et de supervision se dotent d’outils et de compétences technologiques de pointe, de manière à réaliser ces audits algorithmiques, indépendamment de l’expertise que la CNIL pourrait fournir en soutien. L’Autorité des marchés financiers et l’Autorité de concurrence sont tout particulièrement concernées car elles appréhendent des secteurs qui sont très largement ouverts au traitement algorithmique.

La mise en œuvre de ces audits pourrait être assurée par un corps public d’experts des algorithmes qui les contrôlerait et les testerait. Une autre solution consisterait à homologuer des entreprises d’audit privées, sur la base d’un référentiel établi et contrôlé par la puissance publique[32]. La CNIL encourage les entreprises et les administrations à se tourner vers des solutions de type « label », censées alimenter une dynamique vertueuse[33]. D’une part, les labels garantiraient la non-discrimination et la loyauté des algorithmes et, d’autre part, ils favoriseraient la visibilité des meilleures pratiques, ce qui opérerait une sorte de régulation par le marché des acteurs privés. À cet égard, les travaux de droit économique sur la normativité privée, par le biais des labels et autres codes de bonne conduite, seront une excellente référence en la matière, notamment pour se garder des risques de « capture normative » et de conflits d’intérêts[34].

  1. L’évaluation contrefactuelle

Certains auteurs proposent une approche alternative pour mesurer les biais et l’équité dans l’apprentissage automatique : l’évaluation contrefactuelle[35]. Cette méthode ressort du domaine des sciences : dans de nombreux contextes pratiques, il s’avère que l’alternative à un algorithme biaisé n’est pas un biais, mais une autre méthode de décision, telle qu’un autre algorithme ou même la discrétion humaine. Certaines techniques statistiques permettent d’effectuer des comparaisons contrefactuelles qui permettent aux chercheurs de quantifier les biais sans accéder à l’algorithme sous-jacent ou à ses données de formation. Il nous semble intéressant de mentionner cette approche qui, bien que scientifique dans son essence, pourrait être juridicisée dans sa mise en œuvre, au titre des pratiques constitutives d’une bonne gouvernance algorithmique.

  1. Des études d’impact contre le risque algorithmique

Sur le modèle des études d’impact réalisées en matière environnementale[36] ou de protection des données[37], nous pourrions proposer une évaluation préventive des risques liés à la mise en circulation d’un algorithme. Cette obligation serait mise à la charge, notamment, des institutions publiques, de façon à leur inculquer la culture de l’évaluation et de la prévention. Il pourrait leur être demandé de procéder à une auto-évaluation des systèmes de décision automatisés existants et proposés, en évaluant les impacts potentiels sur l’équité, la justice, les préjugés ou toute autre préoccupation en lien avec l’intérêt général[38].

[1] Rapport du Parlement du 27 janvier 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique, (2015/2103(INL)).

[2] A. Rouvroy et T. Berns, « Le nouveau pouvoir statistique. Ou quand le contrôle s’exerce sur un réel normé, docile et sans événement car constitué de corps “numériques… », Multitudes, 2010, n° 40, p. 88. Les possibilités d’oublier et de se faire oublier, de désobéir, de se rendre compte des raisons de nos actions sont perçues aujourd’hui comme essentielles à la possibilité même du droit, c’est-à-dire à son effectivité face à la gouvernementalité algorithmique et aux nouvelles normativités qu’elle ouvre.

[3] J. Balkin, « The Three Laws of Robotics in the Age of Big Data », Ohio St. L.J., 2017, vol. 78, p. 1217.

[4] L. Andrews, I know who you are and I saw what you did: social networks and the death of privacy, Free Press, 2011, p. 189.

[5] F. Pasquale, « Toward a Fourth Law of Robotics: Preserving Attribution, Responsibility, and Explainability in an Algorithmic Society », Ohio St. L.J, 2017, vol. 78, p. 1243.

[6] G. Teubner, « Les multiples aliénations du droit : sur la plus-value sociale du douzième chameau », Droit et société 2001, n° 47, p. 75.

[7] L. Boy, Droit économique, L’Hermès, 2002.

[8] K. Crawford, « The hidden biases in big data », Harvard Business Review, avr. 2013 http://blogs.hbr .org/2013/04/the-hidden-biases-in-big-data.

[9] V. J. Charpenet et C. Lequesne, « Discrimination et biais genrés – Les lacunes juridiques de l’audit algorithmique », D. 2019, n° 33, chron., 1852. Les auteures recensent de nombreux cas de discrimination algorithmique ; au-delà des biais de genre, ils concernent diverses minorités dans le domaine de l’emploi (discrimination des personnes atteintes de troubles mentaux), de la justice (discrimination des personnes de couleurs) ou de la lutte contre la fraude par les administrations (visant distinctement les personnes en situation précaire).

[10] M. Teller, « Éthique et IA : un préambule pour un autre droit », Banque et Droit, hors-série, oct. 2019.

[11] Il existe une relation négative entre la performance d’un algorithme d’apprentissage automatique et son explicabilité. Les méthodes les plus performantes (par exemple, l’apprentissage profond) sont souvent les moins transparentes, et les méthodes les plus transparentes (les arbres de décision, par exemple) sont parfois moins précises. V. G. Bologna et Y. Hayashi, « Characterization of symbolic rules embedded in deep DIMLP networks: A challenge to transparency of deep learning », Journal of Artificial Intelligence and Soft Computing Research, 7(4), p. 265.

[12] J. Buolamwini, T. Gebru, « Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification », Conference on Fairness, Accountability, and Transparency, New York, NY, February 2018. Adde: J. Metcalf, K. Crawford, « Where are the Human Subjects in Big Data Research? The Emerging Ethics Divide », Big Data & Society, 2016.

http://bds.sagepub.com/content/3/1/2053951716650211.full.pdf+htm.

[13] V. A. Grinbaum, Les robots et le mal, éd. Desclée De Brouwer, 23 janv. 2019. Selon l’auteur, seul le recours au hasard, et ceci dès sa conception, peut libérer la machine de la responsabilité qu’on veut lui faire porter.

[14] V. Communication de la Commission, Un plan coordonné dans le domaine de l’intelligence artificielle, Bruxelles, le 7.12.2018 COM(2018) 795 final, annexe, p. 9 V. le projet « ETHICAA – Agents Autonomes et Éthique », de l’Agence nationale de la recherche (ANR). L’objectif du projet ETHICAA est de définir ce que devrait être un système composé d’un ou plusieurs agents et capable de gérer des conflits éthiques, aussi bien au niveau individuel qu’au niveau collectif » : http://www.agence-nationale- recherche.fr/?Projet=ANR-13-CORD-0006.

[15] W. Samek, T. Wiegand, K.-R. Müller, Explainable Artificial Intelligence: Understanding, Visualizing and Interpreting Deep Learning Models, 2017, arXiv:1708.08296v1.

[16] V. P. Bertail, D. Bounie, S. Clemençon, P. Waelbroeck, « Algorithmes : biais, discrimination et équité », préc., p. 17.

[17] Par exemple, que signifie réellement expliquer et que faut-il interpréter ? Quel type « d’explicabilité » faut-il fournir et pour quels services ? L’explicabilité parfaite existe-t-elle ?

[18] D. Keats Citron et F. Pasquale, « The Scored Society: Due Process for Automated Predictions », Washington Law Review, 2014 : « Les experts en technologie de la FTC pourraient tester les systèmes de notation pour rechercher les biais, l’arbitraire et les erreurs de caractérisation injustes. Pour ce faire, ils auraient besoin non seulement d’afficher les jeux de données extraits par les systèmes de notation, mais également le code source et les notes du programmeur décrivant les variables, les corrélations et les inférences intégrées aux algorithmes des systèmes de notation ».

[19] V. : D. Bourcier et P. de FILIPPI, « Transparence des algorithmes face à l’Open Data : Quel statut pour les données d’apprentissage ? », Revue française dadministration publique, ENA, 2018, hal-02046703.

[20] F. Marty et P. Reis, « Une approche critique du contrôle de l’exercice des pouvoirs privés économiques par l’abus de dépendance économique », RIDE 2013/4, p. 579.

[21] V. M. Ananny et K. Crawford, « Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability », New Media & Society, 2016, 1.

[22] Règl. (UE) 2016/679 du PE et du Cons., 27 avr. 2016, relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données.

[23] Sur cette question, v. M. Teller, « Éthique et IA : un préambule pour un autre droit », Banque et Droit, hors-série, oct. 2019.

[24] V. par ex. la loi n° 78-17, 6 janv. 1978, relative à l’informatique, aux fichiers et aux libertés.

[25] V. Y. Poullet, La vie privée à l’heure de la société du numérique, op.cit., p. 127.

[26] V. communication de la Commission, Un plan coordonné dans le domaine de l’intelligence artificielle, Bruxelles, le 7 déc. 2018, COM(2018) 795 final.

[27] Nous renvoyons notamment aux applications d’IA en matière de reporting financier sous le langage XBRL. https://www.esma.europa.eu/sections/european-single-electronic-format.

[28] Le droit économique entre intérêts privés et intérêt général. Hommage à Laurence Boy, préc.

[29] C. Castets-Renard, « Le Livre blanc de la Commission européenne sur l’intelligence artificielle : vers la confiance ? », D. 2020, n° 15, p. 837.

[30] V. M. Kaminski et G. Malgieri, Algorithmic Impact Assessments under the GDPR: Producing Multi-layered Explanations (September 18, 2019). U of Colorado Law Legal Studies Research Paper, n° 19-28. Disponible sur SSRN : https://ssrn.com/abstract=3456224.

[31] Comment permettre à l’homme de garder la main ? rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle, CNIL, 15 déc. 2017, p. 58.

https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf#page=59.

[32] Nous pouvons mentionner la société « Online Risk Consulting & Algorithmic Auditing » dont l’objectif est d’aider les entreprises à identifier et à corriger les préjugés des algorithmes qu’elles utilisent. https://orcaarisk.com.

[33] Comment permettre à l’homme de garder la main ? rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle, op. cit.

[34] L. Boy, « Normes techniques et normes juridiques », Cahiers du Conseil constitutionnel n° 21, dossier normativité, janv. 2007.

[35] B. Cowgill et C. Tucker, « Algorithmic Bias: A Counterfactual Perspective », Working Paper: NSF Trustworthy Algorithms, December 2017, Arlington, VA.

[36] S. Borderon, La négociation écologique en droit des études d’impact environnemental, thèse Nice, dir. P. Steichen, 2017.

[37] Cela concerne l’analyse d’impact relative à la protection des données (AIPD) : l’AIPD est un outil qui permet de construire un traitement conforme au RGPD et respectueux de la vie privée, lorsqu’un traitement de données personnelles est susceptible d’engendrer un risque élevé pour les droits et libertés des personnes concernées.

[38] V. D. Reisman, J. Schultz, K. Crawford, M. Whittaker, « Algorithmic impact assessments: a pratical framework for public agency accountability », I.A. Now Institute, April 2018.

3 - Conclusion

En 1972, Christian Gavalda commentait, pour la Revue économique, l’ouvrage de Gérard Farjat Droit économique[1]. Il relevait alors tout le potentiel d’innovation de ce droit, qualifié de « source revivifiante ». Ce constat résultait, selon lui, d’une nouvelle conceptualisation juridique des rapports économiques, envisagée dans une perspective scientifique et pratique. C. Gavalda faisait alors le pari que les juristes formés à l’école de droit économique ne deviendraient pas les simples exécutants des analyses et décisions économiques, car « c’est bien plutôt le non-changement du droit qui cantonnerait peu à peu les juristes purs (“passéistes”) à n’être plus que des exécutants ». Près d’un demi-siècle après, les mots du professeur Gavalda semblent avoir inscrit la prophétie qu’ils portaient dans le réel : le monde de demain, celui de l’IA et des deep tech, aura besoin d’analyses juridiques innovantes – « revivifiantes » – pour être à la hauteur des bouleversements et des enjeux annoncés. Le droit économique nous invite, plus que jamais aujourd’hui, à réinventer le droit pour n’être pas les simples exécutants de la matrice technologique et scientifique.

[1] C. Gavalda, « Farjat (Gérard) – Droit économique », note bibliographique, in Revue économique,1972, n° 4, p. 700.

Leave A Comment