« Plus qu'un sujet de société, l'IA est un sujet d'humanité » (Valérie Dagand, IA Campus)

Issue du monde de la transformation digitale, des premiers sites internet aux réseaux sociaux en passant par l'usage de la data, Valérie Dagand s'intéresse désormais naturellement à l'intelligence artificielle. Une technologie pas si récente, mais qui fait de plus en plus parler d'elle. Face à cet engouement, elle alerte sur les points de vigilance à avoir.
(Crédits : DR)

LA TRIBUNE : Depuis le succès de ChatGPT, l'intelligence artificielle a-t-elle franchi un cap ?

Valérie Dagand : L'IA en tant que telle existe depuis une bonne dizaine d'années, y compris dans l'industrie. Mais parler d'IA c'est parler d'un grand magma qui veut tout et rien dire. A l'intérieur, il existe depuis très longtemps le machine learning qui correspond à des données qui sont entraînées. Concrètement, pour reconnaître une voiture il faut d'abord l'action d'un être humain pour mettre des étiquettes afin de définir ce qui est une voiture ou un vélo, c'est le captcha. Ensuite, l'utilisation d'un algorithme permet de réaliser du prédictif. Avec l'IA générative, celle de ChatGPT qui est un segment plus projet appelé deep learning, il n'y a plus besoin de ce travail d'étiquetage, les algorithmes apprennent tout seul il faut juste une bonne préparation des données en amont. Ce qui est nouveau c'est ça, la création de contenu.

Il y a un avant et un après ChatGPT ?

V.D : Si vous regardez le nombre de requêtes avec le mot « IA » ou « AI » sur Google, elles explosent depuis fin 2022. L'utilisation de l'IA générative est très spectaculaire ce qui conduit a un effet buzz, et comme elle est peu onéreuse également donc elle s'est naturellement démocratisée. Tout le monde voit désormais l'IA comme un eldorado, toutes les entreprises y voient un moyen de faire plus avec des effectifs constants. Il y a une pensée magique comme quoi tout serait automatisé, c'est pour cela qu'il y a un fort enjeu d'accompagnement, les entreprises ont besoin de comprendre, de se former et de s'acculturer.

L'opportunité est-elle avant tout financière avec le risque de supprimer certains emplois ?

V.D : Pour l'instant, l'IA génère plus d'emplois qu'elle n'en supprime, c'est un point assez clair et qui va durer encore longtemps car le niveau de maturité de la technologie est très faible. En revanche, il faut prendre conscience des impacts pour le futur, de la même façon qu'il a fallu le faire lors de la transformation digitale qui consiste aussi à numériser des processus. C'est la conduite du changement. Comme le sujet est très neuf, nous n'en sommes pas encore là, mais il faut dire à chaque chef d'entreprise qui veut faire plus et mieux que ce n'est pas seulement un sujet technologique mais de transformation.

Ce qui est important c'est de faire comprendre qu'aller vers les opportunités, de transformer un métier en l'automatisant, nécessite de regarder les conséquences sur l'organisation, les processus métier et les collaborateurs. Seulement virer des ETP (équivalent temps plein) sans avoir d'impact sur le rôle ou la responsabilité de l'entreprise est un sujet. Il s'agit juste de points de vigilance.

Vous parliez de formation et d'acculturation, cela vaut aussi pour ces points de vigilance ?

V.D : Il y a beaucoup d'opportunités qui donnent envie, mais la technologie effraie souvent les chefs d'entreprises qui la voient comme trop chère et pas forcément applicable dans leur registre. Il faut montrer ces opportunités accessibles avec des cas d'usages possibles sur de nombreux métiers des ressources humaines, à la logistique en passant par la finance. Mais il existe d'autres enjeux, comme la fuite de données, il faut s'y intéresser et réaliser énormément de veille. Il commence à y avoir des IA françaises, avec Mistral par exemple, qui vont permettre de faire comprendre ces enjeux là.

Il existe par exemple des biais d'hallucination, pendant un moment si vous demandiez à ChatGPT une recette à base d'endives et de boulons, il en créait une car sa configuration lui dit de répondre coûte que coûte. D'autres outils disent qu'ils ne peuvent pas répondre. L'intérêt est de montrer que ce n'est pas fiable à 100% et qu'une entreprise doit former ses collaborateurs pour ne pas les laisser sans point de vigilance. Nous ne maîtrisons pas cette boîte noire, ni les critères utilisés pour concevoir les algorithmes. Le CEO de Google, Sundar Pichai, disait que nous sommes comme dans la situation de la découverte du feu, plus qu'un sujet de société, l'IA est un sujet d'humanité.

Votre discours fait preuve de beaucoup de prudence...

V.D : Je suis très sensible aux enjeux du numérique responsable. Si l'IA n'est pas maîtrisée, nous ne pouvons pas connaître tous les biais que j'ai cités. Il existe une vraie déformation culturelle et la façon dont nous allons préparer les algorithmes va définir la façon dont nous dessinons le monde.

Lorsque l'on parle de deep fake, nous sommes aussi face à ça. D'un côté, c'est fabuleux car nous pourrons avoir un service client avec un avatar automatisé en très bonne qualité, mais en même temps c'est un outil qui peut prendre votre photo, y apposer votre voix et vous transformer en vidéo très rapidement. C'est comme avec le nucléaire, le gain est énorme mais il y a aussi des impacts sociétaux.

Faut-il une réglementation pour encadrer tous ces éléments ?

V.D : C'est quelque chose de subtil et très exploratoire car il faut trouver le bon équilibre. Je crois beaucoup à la sensibilisation pour donner envie d'y aller et en même temps avoir des cas d'usage qui vont construire la réglementation. Si la réglementation se construit sans les cas d'usage, ce sera la catastrophe.

Sujets les + lus

|

Sujets les + commentés

Commentaire 0

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

Il n'y a actuellement aucun commentaire concernant cet article.
Soyez le premier à donner votre avis !

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.