[Opinion] « Pour une intelligence artificielle au sein du bien commun »

  • Home
  • Publications
  • [Opinion] « Pour une intelligence artificielle au sein du bien commun »
Crédits : Gerd Altmann/Pixabay
Charles Bouveyron

Charles Bouveyron

Directeur de l’Institut 3iA Côte d’Azur et membre du Comité d’Organisation du SophIA Summit 2021

L’IA est déjà partout. Elle va continuer de l’être, de plus en plus, tant ses possibilités et ses domaines d’application semblent infinis. De la reconnaissance d’image à l’aide à la décision, de la médecine personnalisée à la maintenance industrielle, du transport à la finance, ou encore de la cybersécurité à la prévention des catastrophes naturelles… l’IA repousse partout les limites de l’efficacité et de la performance.

Face à cette révolution en marche, les sentiments sont parfois mitigés et l’IA peut susciter des passions contradictoires.

De la recherche au débat public

Le grand public, en effet, ne se sent pas toujours à l’aise face à une propagation aussi rapide d’une technologie telle que l’IA. Certains peuvent même percevoir l’IA comme une intrusion, voire un réel danger. Ces inquiétudes sont tout à fait compréhensibles face à certaines utilisations dévoyées de l’IA, comme le système de crédit social ou de notation des citoyens imaginé par certains gouvernements.

Mais il est important de souligner que ces cas « extrêmes » sont marginaux. Dans leur immense majorité, les intelligences artificielles permettent de formidables progrès, que ce soit en cassant les plafonds de verre en termes de performance ou en faisant gagner un temps précieux dans d’innombrables disciplines.

Toujours est-il que le succès de l’IA crée aujourd’hui autant d’enthousiasme que de tension. En pénétrant dans nos vies, elle a cessé d’être uniquement un sujet de recherche : elle est devenue un sujet de débat public.

Savoir partager nos données si c’est utile

Sans les données, l’intelligence artificielle ne peut « apprendre » et n’est donc pas applicable. Et si l’IA fait justement débat, c’est parce que ces données appartiennent aux citoyens. Il s’agit de nos vies privées. Or, quel que soit le domaine, l’IA n’est applicable que si nous consentons à ce que nos données personnelles – fussent-elles anonymisées – soient exploitées. C’est une forme de contrat qui ne peut fonctionner que s’il se fonde sur un principe moral. Ce principe doit être le suivant : si cela nous est profitable, si cela nous est utile (d’autant plus si c’est collectivement), alors il faut savoir partager nos données. Bien entendu, tout cela à condition que les opérateurs (entreprises, établissements publics, États) sachent les protéger, au moins pour les données les plus sensibles comme les données médicales.

D’où l’importance que les citoyens soient bien informés et qu’ils aient connaissance des outils et applications pour prendre les bonnes décisions. Mais aussi pour pouvoir être vigilants quant aux mauvais usages.

Il faut donc une conscience et une connaissance pour que la responsabilité qui consiste à partager nos données puisse être exercée en confiance. Cette conscience passe notamment par une éducation de tous les publics aux concepts fondamentaux de l’IA. De nombreux acteurs de l’enseignement proposent d’ores et déjà des formations à tous les niveaux pour s’acculturer à ces concepts.

Coopération

Pour atteindre ces différents objectifs, les différents acteurs – recherche académique, recherche industrielle, entreprises commerciales, États – doivent s’engager dans cette voie responsable. Naturellement, comme n’importe quel autre, le marché de l’intelligence artificielle est soumis à la concurrence. On observe pourtant une réelle coopération à bien des niveaux. Tout d’abord avec la communauté scientifique mondiale, mais aussi dans le domaine privé : même les GAFAM publient une grande partie de leurs résultats scientifiques.

Cette tendance s’accentue également du côté des entreprises. Nombreuses sont celles qui, ces dernières années, ont intensifié leur R&D et qui sollicitent le monde académique pour mettre en place des collaborations de recherche, sur des sujets amonts ou très appliqués.

Enfin, l’État joue un rôle de premier ordre pour aligner ses ambitions sur l’IA avec une réelle démarche responsable. En créant le programme « AI For Humanity », l’État n’assure pas simplement le financement public de la recherche en intelligence artificielle : il lui donne un sens et permet la mise en place d’un réseau d’instituts dédiés – les instituts 3IA – qui favorise cette indispensable coopération.

Il faut porter haut et fort cette exigence d’excellence, de responsabilité, d’éthique et de sens. En s’engageant collectivement sur cette voie, les différents acteurs et parties prenantes permettront à l’IA de donner le meilleur d’elle-même, et aux usagers de l’utiliser en toute confiance.

Article publié dans La Tribune le 30 septembre 2021.

Leave A Comment