IA générative : l’Europe des règles ou l’Europe de l’innovation ?

  • Home
  • Actualités
  • IA générative : l’Europe des règles ou l’Europe de l’innovation ?
line, waves, background-7146715.jpg

IA générative : l’Europe des règles ou l’Europe de l’innovation ?

 de Chiara SOTTOCORONA et Marco LANDI

L’IA promet de révolutionner le monde du travail et d’accroître notre productivité comme jamais auparavant. Mais quelle serait la compétitivité de l’Europe dans cette course à l’innovation si nous nous contentions de construire notre avenir en utilisant les ports, les autoroutes, les aéroports et les infrastructures des autres ? Si nous décidions de laisser notre productivité aux mains de tiers ?

Les investissements privés dans l’intelligence artificielle aux États-Unis ont été de 47,4 milliards de dollars en 2022, soit plus de trois fois les investissements de la Chine (13,4 milliards de dollars), selon l’ AI Index 2023, publié par le Stanford Institut for Human-Centered Artificial Intelligence. Le rapport prévient également que la proportion d’entreprises utilisant l’IA a plus que doublé depuis 2017 et se dirige vers les 60 %, à l’échelle mondiale. C’est à cette réalité que nous devons faire face. Il ne peut y avoir d’Europe compétitive sans une IA européenne, fondée sur nos propres règles, notre éthique et nos principes. Une IA sous notre contrôle, à la disposition de toutes les entreprises européennes qui veulent construire l’avenir sur cette infrastructure. Pourtant, plus de 73 % des grands modèles de langage (LLM) qui ont permis l’exploit de l’IA générative sont d’origine américaine. Après les promesses initiales, l’enthousiasme démesuré, la curiosité qui a conduit 100 millions d’utilisateurs en quelques mois à essayer Chat-GPT, voici venu le temps de la critique et de la réflexion.

L’IA générative fait peur. Même à ses propres créateurs. Le cas de Geoffrey Hinton fait grand bruit: l’un des pères de l’apprentissage automatique et gourou de l’IA chez Google qui a démissionné « pour mieux parler des dangers auxquels nous sommes confrontés ». Des milliers de chercheurs, dont de grandes personnalités comme Steve Wozniak et Joshua Bengio, inquiets de la vitesse à laquelle progresse l’IA générative, ont lancé fin mars un appel à travers le Future of Life Institute pour appeler à une pause de réflexion, expliquant que « Les systèmes d’IA dont l’intelligence rivalise avec l’intelligence humaine posent des risques profonds pour la société et l’humanité ». Un appel qui a fait mouche, au point que la Maison Blanche a lancé une série de consultations avec les BigTech pour discuter des dangers pour la démocratie, des conséquences économiques et de l’impact sur le travail.

Il est devenu évident que des règles sont nécessaires pour encadrer le développement d’une intelligence artificielle de plus en plus puissante, mais encore peu fiable, qui menace de répandre la désinformation, de créer des discriminations et de provoquer des conflits sociaux majeurs. Aujourd’hui tout le monde réclame des règles. Même OpenAI et Google, qui ont été les premiers à créer les deux modèles concurrents, Chat-GPT et Bard. Sam Altman, PDG d’OpenAI, a reconnu devant le Congrès américain la nécessité de réglementer l’utilisation de l’IA Generative , appelant à la création de normes de sécurité. Sundar Pichai lui a fait écho fin mai dans le Financial Times endéclarant : « L’IA est une technologie qui devient trop importante, pas seulement pour l’industrie, pour l’ensemble de l’humanité, et elle doit être bien réglementée ». M. Pichai a également appelé à « une coopération internationale entre les États-Unis et l’Europe afin de créer un cadre solide pour une IA responsable ».

En réalité, la position de ces dirigeants ressemble davantage à celle de quelqu’un qui a jeté la pierre et qui cache ensuite sa main, en passant la balle aux gouvernements. Le patron d’Alphabet a jusqu’à présent considéré l’Europe comme un marché, sur lequel il a empêché la sortie de Bard et des autres produits basés sur son IA générative (sortie dans 180 pays dans le monde) précisément parce qu’il craint les règles que l’Europe est en train d’imposer. Et en prévision de l’ IA Act , qui sera votée à la mi-juin par le Parlement européen, même Sam Altman prend ses défenses, en craignant que cette loi soit trop restrictive : « Si nous pouvons mettre notre technologie en conformité, nous le ferons », a-t- il déclaré, « sinon nous devrons cesser nos activités sur le continent européen ».

L’Europe a déjà prouvé, depuis 2018 et le GDPR, qu’elle était à l’avant-garde en matière de réglementation et de protection des citoyens. Et les Big Tech, lorsqu’elles ne se sont pas mises en conformité, ont reçu de lourdes amendes. Mais la réglementation ne suffira pas à nous protéger du risque de perte de souveraineté technologique et de compétitivité de nos entreprises face à l’impact disruptif de ces grands modèles d’IA générative. Pourquoi n’y a-t-il pas d’initiatives réussies à l’échelle de ChatGPT en Europe ?

Nous avons pourtant l’excellence : des scientifiques de haut niveau, des entreprises extraordinaires, des dizaines de start-ups devenues des licornes et les ressources économiques ne nous manquent pas.. Pourquoi ne pas essayer de rivaliser dans cette course à l’IA, pourquoi ne pas essayer d’exporter notre vision de l’IA et du futur dans le monde entier ? Quand je parle de vision de l’IA, c’est une vision centrée sur l’humain, de bénéfice pour l’humanité et non de préjudice ou de concurrence, qui est promue par la Commission européenne, et que j’ai toujours adoptée en créant des initiatives telles que l’Institut-EuropIA, la Maison de l’intelligence artificielle à Sophia Antipolis et le World AI Cannes Festival (Waicf) sur la Côte d’Azur.

 

"L'IA est une technologie qui devient trop importante, pas seulement pour l'industrie, pour l'ensemble de l'humanité, et elle doit être bien réglementée".

 

Nous devons agir pour que l’IA ne soit pas dé-générative. Sans cacher les risques, mais en gardant à l’esprit les objectifs et les bénéfices pour des secteurs tels que la santé, la sécurité, l’éducation, l’industrie, le tourisme. Pourquoi alors ne sommes-nous pas encore dotés de grands modèles de langage de type LLM ? Ce n’est pas seulement une question d’investissement, car il est vrai que le coût de ces modèles pour l’IA générative est très élevé. Je pense que c’est parce que nous n’avons pas la capacité de faire système et de partager même les grandes ressources des super ordinateurs dont nous disposons en divers lieux d’Europe. Chaque pays poursuit sa propre stratégie. La France a créé ses quatre pôles de recherche spécialisés en IA, financés par un plan national et dédiés à différents secteurs. L’Allemagne a lancé l’initiative LEAM (Large European AI Models), promue

par l’Association allemande pour l’intelligence artificielle, qui a souligné la nécessité de créer une infrastructure de supercalculateurs adaptée au développement des LLM. Coût estimé entre 350 et 400 millions d’euros. Et l’Italie ? « Nous pourrions bientôt connaître une crise technologique bien plus grave que la crise énergétique actuelle », prévient Emanuela Girardi, membre du conseil d’administration d’Aixa (l’Association italienne pour l’intelligence artificielle). « Nous avons besoin d’une initiative forte, courageuse et ambitieuse de la part de tous les pays européens en faveur d’une IA responsable, éthique et durable et d’un retour à une participation en tant que concurrents, et non en tant que simples spectateurs, à la course à l’intelligence artificielle ».

N’oublions pas que l’Europe s’est construite dans le passé sur de grands projets communs : CECA, GSM, Airbus. Elle doit s’appuyer davantage sur sa propre innovation et ne pas se contenter de « réglementer ». Un grand plan européen pour les technologies du futur doit être lancé. J ‘imagine « A New Génération EU Plan « pour le développement des projets d’IA et de tout ce qui les soutient : Cloud computing, ordinateurs quantiques, IOT, semi-conducteurs.

L’Italie a également un grand rôle à jouer, une occasion pour le gouvernement de Giorgia Meloni pour montrer un réel changement, se concentrer sur nos jeunes, assurer leur avenir. Une partie plus importante du financement du PNRR (le plan national de résiliance et de rélance) pourrait être alloué au lancement d’un grand plan italien pour l’intelligence artificielle : mobiliser les start-ups, les centres de recherche, les grandes entreprises, les universités pour créer des modèles d’intelligence artificielle capables de rivaliser avec ceux qui arrivent de l’autre côté de l’océan. QuestIT, l’une des entreprises leaders dans ce domaine, est prête à prendre la tête de ce plan : nous avons la technologie et l’expérience. QuestIT a déjà été le pionnier des assistants intelligents, aujourd’hui utilisés par plus d’une centaine d’entreprises et d’administrations publiques dans toute l’Italie. Elle a également développé Lis, le seul assistant virtuel au monde qui parle la langue des signes.

L’IA générative peut permettre aux assistants intelligents de faire un bond en avant et faciliter l’interaction homme-machine dans de nombreux domaines.
Ne manquons pas cette occasion !

Leave A Comment