#WAICF23 – Rencontre avec le Dr. Luc JULIA, Directeur Scientifique du Groupe Renault

  • Home
  • Actualités
  • #WAICF23 – Rencontre avec le Dr. Luc JULIA, Directeur Scientifique du Groupe Renault

#WAICF23 – Rencontre avec le Dr. Luc JULIA, Directeur Scientifique du Groupe Renault

 par Chiara Sottocorona

Pouvez vous décrire la différence entre trois types d’intelligence artificielle dont on a parlé dans les conférences à Cannes: l’IA Générative, l’IA Cognitive et l’IA Prédictive ?
La première est l’IA dont tout le monde parle en ce moment, la découverte, au moins pour le grand public. Les spécialistes en parlent depuis quelques années, les modèles sont déjà à la troisième génération, mais le résultat est là maintenant, avec ChatGPT.
L’IA Cognitive a redémarré à partir des années 2000, quand on a relancé le Machine Learning et le Deep Learning, mais elle est basée sur le concept d’origine: croire que l’on peut imiter, avec des réseaux de neurones, ce que fait le cerveau humain. C’est l’IA qui était née au début, en 1956.
Mais de mon point de vue on aurait pas du l’appeler « intelligence artificielle », parce qu’elle n’a rien à voir avec l’intelligence.

Est-ce-que l’IA de type cognitive peut arriver à comprendre le monde réel ?
Non justement: ça aucune intelligence artificielle ne sait le faire. Zéro. Je crois que l’on n’arrivera jamais à celle qui est appelée « AGE », c’est à dire l’IA générale, capable d’agir en tout comme un être humain. Mais l’IA Cognitive est celle qui peut faire plus des choses intéressantes dans des domaines spécifiques. Avec le Deep learning, elle peut faire des choses très précises, comme chercher un cancer dans des radiographies, ou détecter des sources et des niveaux de pollution. Elle est utilisée aussi pour donner aux voitures autonomes la perception de l’environment qu’il y a autour.
Et ça marche assez bien dans les différents domaines d’application. Mais très très spécifiques.

Et l’IA Prédictive ?
C’est la plus facile à réaliser et super efficace. Parce qu’ elle est basée sur de « time-series »: on prend les données relatives à une période et on fait des statistiques. En allant en arrière, sur plusieurs périodes, on voit les statistiques et on est capable de prédire ce qui pourra se reproduire. Par exemple ça marche très bien pour savoir quand un robot va tomber en panne. L’usure est quelque chose qu’on peut prédire sur la base de statistiques. On connaît et on peut calculer l’obsolence, que soit des robots, des voitures, ou des téléphones. Mais l’IA predictive ne construit pas de scénario, elle ne va pas prédire si vous allez avoir un accident. Et elle ne marche pas sur les macro- données. Là où il n’y a pas assez de bonnes statistiques, ou qu’ elles sont trop complexes, comme prédire les variations du climat.

L'IA Cognitive est celle qui peut faire plus des choses intéressantes dans des domaines spécifiques. Avec le Deep learning, elle peut faire des choses très précises, comme chercher un cancer dans des radiographies, ou détecter des sources et des niveaux de pollution

Il faut ajouter d’autres types d’IA à ces trends importants ?
L’IA Logique, celle de système expert. On a commencé avec l’IA Cognitive, à la fin des années Cinquante, mais elle a échoué rapidement. On a eu l’hiver de l’IA pendant deux décennies, et après on est reparti dans les années ’90 avec le Machine Learning. Entre temps, il y a eu dans les années ’70-’90 les expert-systems qui est de l’IA logique: des base de règles pour assigner des données à des fonctions. Après, on a eélancé le Machine Learning en utilisant des grandes bases de données pour entraîner les machines. Et depuis quatre-cinq ans est née l’IA générative qu’on utilise aujourd’hui pour créer textes et images.

Pourquoi faire la différence?
C’est du Deep learning plus plus… avec des immenses bases de données. GPT3 utilise 150 milliards de paramètres. ChatGPT a 175 milliards de paramètres.

Mais est-ce-que c’est vraiment utile?
Non, pas vraiment. Il faut arrêter de la magnifier! C’est complètement exagéré de faire tout ce sensationalisme dans les médias. Dès que j’allume la radio je dois écouter: ChatGPT a fait ceci, a fait cela… C’est assez ! Donc l’IA générative est basée sur des énormes bases de données et c’est assez prédictif parce qu’elle peut prévoir, surtout dans la génération des textes, ce qui doit arriver après. Un peu comme les suggestions qui sont déjà proposées sur nos smartphones par l’édition de textes. Ce qui a vraiment bien marché c’est le nom: au moins ils l’ont appelée IA Générative, et c’est super important qu’elle n’est pas été nommée Créative. C’est une bonne nouvelle, parce que les gens devraient comprendre que la créativité est le propre de l’homme et elle reste du domaine humain.

Donc vous ne croyez pas à une IA créative ?
Pas du tout. Il y a deux types de créativité. D’abord celle de ceux qui créent l’IA générative en allant choisir les bonnes données, les paramètres et domaines. Donc la façon de créer le modèle, et ce sont des humains qui le font. Après, il y a l’utilisation. Pour toutes les IA génératives aujourd’hui il faut des questions à poser: des « promptes », comme on appelle les instructions à lui donner. Parce qu’elle répond à des requêtes écrites ou verbales.
Et la créativité est là dans le « promptes ». Si on ne pose pas les bonnes questions, on aura pas les bonnes réponses. C’est moi qui influence la recherche de l’IA générative en lui disant quoi faire. Si je lui demande: écrit moi un article qui prouve que la terre est plate, elle obéit bêtement. Elle va écrire un article très bien pour dire que la terre est plate! C’est là que l’on voit qu’elle ne comprend rien. Et la créativité, celle de l’humain, ça se voit encore plus dans le IA générative d’images.


La plupart d’images produites par les IA génératives se rassemblent tous, sont plutôt fades…

Oui, elle sont moches. Mais on peut arriver, si on lui parle beaucoup, à obtenir quelque chose d’intéressant. Celui qui a gagné les premier prix au concours d’images au Colorado, avec une image génerée par Midjourney, il avait écrit à peu prés mille « promptes » (instructions) avant d’arriver au résultat qu’il a proposé. Elle est là la créativité: dans ce que je lui demande, dans comment je la guide, dans la façon de lui faire modifier le paramètre pour obtenir un meilleur résultat. Après l’algorithme génére, selon ce qu’on lui dit. Donc la bonne nouvelle est que ce truc ne s’appelle pas IA créative. C’est bien générative, ça veut dire qu’elle exécute sur la base de beaucoup beaucoup de données.

En terme d’énergie donc consomme-t-elle beaucoup?
Ah oui. Beaucoup trop! Sur le cloud évidement. Mais pour créer un modèle comme ChatGPT qui utilise des centaines de milliards de données, ça veut dire aussi que les données sont vieillies, obsolètes. Les bases de données qui sont utilisées vont jusqu’à 2021. Et GPT3, avant, se basait sur des données de 2016. Donc l’IA générative, on ne peut pas la construire sur l’actualité. Elle demande du temps, même si un jour, ça ira plus vite. Elle est toujours en arrière et en plus elle coûte très très chère: ce sont des millions de dollars pour créer un modèle. Pas accessible à tout le monde évidement. Ca veut dire beaucoup de CPU, beaucoup de data-center, beaucoup d’énergie consommée. C’est ridicule pour le résultat obtenu. Il y a des scientifiques maintenant qui se sont penchés sur le cas et ont créé des modèles de vérification de la pertinence. Il y a une étude qui vient d’être publiée par l’Université de Hong Kong, et qui après des dizaines et dizaines de tests vient de démontrer que la pertinence de ChatGPT est à peine de 64 pour cent. Cela a eté présenté au WAICF aussi par Mme Pascale Fung, experte en éthique, qui est intervenue en revellant ce manque de pertinence: 64 pour cent, ce n’est vraiment pas fiable. Quand dans la presse plusieurs articles disent que les réponses sont correctes à 80 pour cent, c’est pas vrai du tout. Donc manque de pertinence. Pas actualisé. En plus ce qui est généré est ce qu’on a envie qui soit généré. Si un journaliste par exemple veut l’utiliser pour se faire aider à écrire un article, il faut qu’il écrive sur ce qui s’est passé avant 2021. Et il ne peut pas vérifier les sources!


Ce sera plutôt utilisé dans les réseaux sociaux..

Oui, en ce moment c’est la seule utilité. Quand Microsoft dit on va intégrer ChatGPT à Bing, on verra si ça peut marcher. Si on lui demande si deux plus deux ça fait cinq… Elle repond oui, oui. L’IA générative n’a aucune base de la réalité, aucune logique, et comme on a vu, pas de pertinence. Comment peut faire le moteur de recherche? Sans compter qu’elle va reprendre beaucoup de fausses données ou de biais sur le Web. Et les prochaines versions, 4 ou 5 continueront à utiliser des précédentes bases de donnés imparfaites et ça deviendra de plus en plus faux. Peut-être que ce sera plus intéressant de la mettre dans word, juste comme aide à l’écriture.

page4image25180384Luc Julia au centre dans le jury des Cannes Neurons Award au WAICF

Pourtant Google aussi vise à l’IA générative, il vient de sortir Bard.
Avec quel résultat? Ils ont perdu il y a quelques jours 100 millions de dollars pour une mauvaise réponse de Bard, juste au lancement, qui a fait tomber le titre en bourse. Ce grand groupe ne peut pas se permettre de dire n’importe quoi, Bard l’a fait et cela a coûté cher à Google. Bard c’est le même type d’AI que ChatGPT, donc pas pertinente, on ne peut pas l’utiliser comme moteur de recherche!

En conclusion ?
Une technologie très chère, peu fiable, pas  du tout soutenable, pas vraiment utile. Et pour les images il y a aussi d’autres problèmes qui sont en train de se poser comme celui du droit d’auteurs.

Leave A Comment