« Il ne faut pas obéir à ChatGPT, mais en faire un super assistant créatif » (Pierre Bentata)

Faut-il déléguer son plan stratégique à ChatGPT, comment débiaiser l’IA, a-t-on atteint un plafond de verre ? Pour l’économiste, enseignant à Aix-Marseille Université, il faut savoir utiliser l’IA en connaissance de cause. Avec ses qualités… et ses bais. Et laisser aussi la place à une certaine spontanéité, celle qui doit permettre de voir émerger certaines IA par rapport à d’autres, ou pourquoi il ne faut pas réguler trop tôt.
(Crédits : DR)

LA TRIBUNE - Plus d'un an après ChatGPT, l'IA générative bouleverse encore davantage le monde du travail et l'économie. Vous avez, vous-même, dialogué avec ChatGPT. Et vous racontez, qu'après quelques échanges, ChatGPT vous tutoie. Comme un humain, finalement... Mais vous dites, attention, ChatGPT ne produit pas de langage...

PIERRE BENTATA - En effet, ChatGPT ne produit pas de langage, contrairement à ce que l'on croit. En calculant des règles de probabilité, elle arrive à trouver, à chaque fois, quel est le mot qui suit, de façon la plus probable. Et elle le fait pour ce que l'on tape et pour ce qu'elle tape aussi. Si bien, qu'elle ne sait jamais ce qu'elle va raconter à l'avance. Mais cela veut bien dire qu'elle ne comprend absolument rien de ce qu'elle raconte. C'est pour cela qu'il faut se méfier.

Un peu comme l'e-commerce à l'époque, peut-on dire qu'aujourd'hui, il existe deux catégories d'entreprises, celles qui utilisent l'IA et celles qui s'y refusent, pensant que ce n'est pas pour elles ?

Je ne suis pas devin mais j'ai tendance à penser que oui. Dans le milieu informatique, dans le milieu de la recherche, c'est une certitude. Nous avons vu l'été dernier, l'IA de Google être capable de séquencer plus 30.000 génomes là où normalement il faut une équipe de 1.000 personnes pendant 5 jours pour le faire. Quand elle traite en quelques secondes des sujets techniques, de la gestion de grosses données, elle est irremplaçable. Mais même dans les secteurs où on peut avoir l'impression de ne pas en avoir besoin, il va se créer, très certainement, un besoin d'en avoir. Je travaille beaucoup avec les artisans, notamment avec les coiffeurs, et nous remarquons qu'à partir du moment où la population elle-même considère que cet outil est utile et devient même omniprésent dans la vie, ce qui est en train de se passer peu à peu - d'ici quelques années, nous aurons tous une IA qui gèrera toutes nos applications - ne pas l'avoir peut faire paraître l'entreprise moyenâgeuse. Et dans le cas des coiffeurs, bien sûr que la machine ne va jamais couper les cheveux - nous n'allons pas avoir de robot qui développe les mêmes compétences, c'est très technique de couper les cheveux - en revanche, quand certains coiffeurs vont proposer via leur appli ou leur site de pouvoir tester plusieurs coiffures différentes, bien sûr que le client choisira plus aisément le coiffeur qui propose ce service plutôt que celui qui ne le propose pas.

Les fleuristes, les coiffeurs... tous ces métiers où on peut avoir l'impression que l'IA n'a pas d'impact, vont tout de même être impactés par l'intelligence artificielle.

Cela signifie que l'IA apporte un service additionnel ?

Cela apporte trois choses. D'abord un service additionnel, réel, dont toute la difficulté va être de savoir ce qu'est ce service, ce qui dépend de la créativité. Cela me rappelle la sortie de l'Ipad. La première publicité montrait l'iPhone, l'iMac et au milieu, l'iPad, un truc d'une taille intermédiaire. La publicité ne disait rien sur l'utilisation car personne ne savait. Mais Apple avait senti qu'un objet d'une taille intermédiaire pouvait servir à quelque chose. Finalement, tout le monde s'en est saisi. Les Chinois prennent des photos avec l'iPad, comme si c'était nécessaire d'avoir un appareil photo géant. Dans la restauration, le serveur utilise son iPad pour prendre commande... L'IA, c'est un peu pareil. On ne sait pas forcément à quoi elle va servir mais tout le monde peut avoir une idée. Ensuite, l'IA va permettre d'augmenter la productivité. Parce qu'en permettant à n'importe qui de se concentrer sur son cœur de métier et en délégant tout le reste à la machine, ce sont forcément des gains de productivité qui sont générés. ChatGPT4 peut être connecté à votre banque, à votre calendrier et on peut lui demander, pour une prise de rendez-vous par exemple, de déterminer, en tenant compte de nos préférences et de celle de notre interlocuteur ainsi que de nos emplois du temps respectifs, quel est le meilleur endroit pour se retrouver, dans quel type de restaurant, de commander les tickets de métro si nécessaire... Toute cette activité, chronophage et pas très utile, ChatGPT va pouvoir le faire à notre place, ce qui dégage du temps et de la marge. Un boulanger a dernièrement fait le buzz car il l'utilise pour son suivi des stocks. Cela lui indique s'il faut produire davantage de croissants, plus le lundi que le mardi... Enfin, et c'est l'effet le plus profond, c'est l'effet culturel. Une fois que cela sera devenu la mode et que nous aurons tous considéré que c'est inévitable, il faudra l'avoir car sinon on sera considéré comme hors du temps.

On a beaucoup évoqué la tentation, pour les étudiants, de faire appel à ChatGPT pour rédiger leurs devoirs. Un chef d'entreprise peut-il confier sa stratégie à ChatGPT ?

Comme pour les étudiants, non, il ne faut pas. Et il ne faut pas car, je le répète, ChatGPT ne raisonne pas. Il n'est pas fait pour fournir des informations clés en main. Les étudiants qui l'utilisent, rendent des devoirs qui sont faux car ChatGPT ne comprend pas ce qui lui ai demandé et que si on lui demande une information qui s'est déroulée après 2022, il invente. Comme il calcule avec des probabilités qu'il n'a pas, il produit des résultats qui sont faux. Pour un chef d'entreprise, c'est identique. On ne peut pas lui demander une réponse clé en main. Il ne peut pas prendre en considération des éléments fondamentaux pour une entreprise. Dès qu'il va être confronté à un problème auquel il n'a pas de réponse précise, technique, parce que cela fait entrer en jeu des valeurs humaines, morales, éthiques, sociales... il n'est pas utile. En revanche, il est très utile pour donner de nouvelles idées. Il ne donne pas de stratégie clé en main mais si on le pousse justement à halluciner, à inventer n'importe quoi, il devient un super assistant créatif pour trouver un nouveau logo, savoir s'il doit externaliser certaines activités, comment réorganiser son entreprise... Il ne faut pas obéir à ChatGPT mais il se révèle très utile pour penser à certaines choses auxquelles nous n'aurions pas pensé, car, précisément, il ne fonctionne pas comme nous.

Quand Luc Julia, le papa de Siri, dit que l'IA n'existe pas, êtes-vous d'accord avec lui ?

Oui, je suis d'accord avec lui. Ce que dit Luc Julia, c'est que l'intelligence artificielle n'est pas intelligente. Le plus intéressant pour un chercheur comme moi, c'est que cela nous remet face à la définition de l'intelligence. Et cela nous en dit beaucoup plus sur nous-même que sur la machine. Il est certain que telle qu'elle est aujourd'hui, cette machine n'a pas l'intelligence au sens qu'elle est capable de penser des problèmes à partir de connaissances qu'elle a dans un autre domaine par exemple. Ce qu'il y a d'artificiel dans cette intelligence, c'est justement que c'est un artifice. Elle nous fait croire qu'elle est intelligente car c'est tellement bien fait que c'en est bluffant. Elle peut écrire comme Shakespeare, critiquer Donald Trump, faire un tableau dans le style de Van Gogh. Elle a l'air d'être vraiment humaine, mais en réalité, ce n'est pas de la véritable intelligence. Elle ne va pas produite quelque chose de nouveau car elle dépend fondamentalement des données dont elle dispose au départ et de sa façon de les calculer.

L'IA Act a nourri de nombreuses discussions, voici quelques mois. Entre régulation et libre cours laissé à l'innovation, où placer le curseur ?

Quand on regarde l'histoire économique, on s'aperçoit que ce n'est pas la première révolution technique que nous vivons. Ce qui est bizarre, c'est davantage de la vivre et de ne pas avoir de recul. Le sentiment de repli, la crainte et le besoin de réguler sont des besoins qui sont apparus à chaque émergence d'une innovation. On peut remonter très loin. Les premiers moulins à vent, par exemple, ont créé une vague de panique au cœur de l'Europe car la crainte était une perte de valeurs morales, un sentiment de l'effort qui se transforme... Cela a un peu annoncé la mécanisation de l'économie mais cela n'est pas détruit les valeurs humaines. La même crainte est apparue avec l'écriture, selon laquelle l'écriture allait tuer la parole. Le moteur à explosion a provoqué des manifestations en Angleterre, pays équipé de trains fonctionnant avec ce type de moteur, avec la crainte qu'un homme ne pouvait pas vivre dans des trains roulant à plus de 80 km/h. A chaque innovation technique, il y a une grande peur. Et cette peur est renforcée par le fait que ceux qui travaillent dans ce domaine, estiment eux-mêmes que ça va trop vite et qu'il faut ralentir. En économie, nous avons des théories qui expliquent très bien pourquoi. Quand on est leader sur son marché, quand on s'appelle Sam Altman, on a tout intérêt à ce que ça ralentisse pour que personne ne nous rattrape, et comme on possède une forme de lead, on peut conserver un monopole. Quand on est juste derrière et que l'on a des fonds, on a aussi tout intérêt à ce que ça ralentisse pour pouvoir mener des investissements afin de rattraper les premiers. Donc les gros acteurs sont tous d'accord pour avoir un moratoire. C'est aux petits acteurs qui traitent l'IA qu'il faut demander s'il faut vraiment réguler. Et de mon point de vue, non. Réguler tout de suite, alors que l'on ne sait pas encore comment on va utiliser l'IA, c'est en réalité fermer énormément de portes, d'opportunités et créer une dépendance qui va être fonction de cette régulation. Si on interdit plusieurs usages, on se coupe de certaines façons d'utiliser cette IA. Cela ne veut pas dire qu'il ne faut rien faire. Mais les vraies questions ne se situent pas sur la question de l'IA va-t-elle détruire l'humanité - non, il y a peu de chance, l'IA n'est pas capable de conduire toute seule, donc prendre le contrôle de l'esprit... - mais plus sur l'éthique. Que fait-on pour les mauvaises informations ? Comment former les jeunes ? C'est la première fois qu'une technologie est utilisée aussi vite. La question ce n'est pas tant la régulation mais plutôt comment on intègre l'IA, comme on donne les compétences, comment on forme. Réguler dès le départ, c'est déléguer aux Américains la possibilité de produire des IA que l'on régulera. Ce seront donc des IA américaines avec tous les biais que cela comporte.

Précisément, on évoque régulièrement le risque de développer une IA biaisée. Cela est vrai en termes de genre - d'où la nécessité de féminiser la tech - mais aussi en termes de culture - il ne faudrait pas, par exemple, une IA qui soit américaine et chinoise mais pas africaine. Comment éviter les biais ?

Il n'a y pas plusieurs solutions. On peut difficilement forcer une IA à ne pas être biaisée. La façon dont l'IA répond dépend d'abord de la quantité de données, de leur hétérogénéité, de leur diversité et ensuite elle dépend des super prompts, c'est-à-dire que sur des questions majeures qui vont déterminer ensuite plusieurs réponses, on va lui indiquer quelle est la bonne réponse ou la mauvaise. Cela signifie que des humains déterminent quelle est la bonne ou la mauvaise réponse. Il y a donc toujours une part d'arbitraire derrière un phénomène de biais. Si on régule, on aura quelques IA. Aujourd'hui, à part Mistral AI, elles sont américaines. Elles ont donc été formatées par des personnes qui ont une vision teintée d'une culture américaine. Si on contraint l'apparition d'autres IA qui ont des biais opposés, nous serons tous culturellement enfermés et cela a de vraies conséquences. Par exemple, l'IA ne sait pas faire une dissertation française. Comme elle est entraînée sur des données américaines, elle ne produit que des modèles de dissertation américains. Elle ne connait pas le modèle thèse-antithèse-synthèse. Elle nous oblige donc à avoir une tournure d'esprit qui n'est pas du tout celle de notre culture. Sur ce point - même si habituellement je suis très critique sur Elon Musk - je suis d'accord avec lui qu'il vaut mieux laisser plusieurs IA se développer et voir, de façon un peu spontanée, comment elles seront chacune utilisée.

Il faut donc laisser la place plutôt à la spontanéité ?

C'est ma position. Ce que nous montre l'histoire économique c'est que, comme nous ne sommes pas capables de prédire à l'avance la façon dont on va utiliser des innovations, il vaut mieux laisser un phénomène d'ordre spontané se produire, où chacun va aller chercher par des mécanismes d'apprentissage, d'essais et d'erreurs, quelles sont les bonnes IA ou comment débiaiser certaines. Si on n'utilise pas la tech contre la tech, il sera très difficile de limiter les pouvoirs de l'IA.

Peut-on s'attendre à ce que l'IA suive une courbe du hype ?

Il existe un vrai débat. Luc Julia ou Yann Le Cun estiment que nous allons arriver bientôt à une forme de plafond de verre. On sait que pour être encore plus efficaces qu'elles ne le sont, il faudrait changer selon eux la totalité du fonctionnement de l'IA et passer par autre chose que le réseau de neurones. Ce que dit Stanislas Dehaene, le spécialiste de la conscience, c'est que la différence entre l'IA et l'intelligence c'est que dans notre cerveau humain, il existe une interface qui vient connecter l'ensemble des informations et les redistribue. Or l'IA n'a pas cela. Elle n'a pas une interface de travail dans le lobe frontal qui lui permet de créer ensuite à partir de données de nouvelles solutions. D'autres, comme Sam Altman, pensent que non, qu'elle va prendre conscience d'elle-même. Pour ma part, je reste sceptique. Je n'ai pas remarqué un seul signe d'intelligence dans cette IA. Pour l'instant, on plafonne.

La cybersécurité est un sujet majeur, qui concerne toutes les acteurs, entreprises, collectivités.... ChatGPT ou plus globalement l'IA générative peut-il aider à déjouer les pièges ?

Je ne suis pas un expert de cybersécurité mais l'IA sait lutter contre ses propres biais. Elle peut repérer du code qui a été modifié, rechercher du virus, voir quand une IA est intervenue. On peut soumettre un texte ou une photo à ChatGPT0, il saura dire si une iA est intervenue. Elle donne donc des informations sur les tentatives de fraude. Maintenant, il faut être assez cynique et accepter que nous aurons tous un retard sur ceux qui ont des intentions frauduleuses. C'est tout le problème des technologies. Dès que l'on va réussir à traiter une problématique, d'autres réussissent à trouver un moyen de la contourner.

Sujets les + lus

|

Sujets les + commentés

Commentaires 7
à écrit le 17/02/2024 à 13:39
Signaler
On sait la suite, le fait de le donner à tout le monde est un moyen de faire prendre conscience : 1) Pour les gouvernants qui veulent garder leurs postes le danger immmmmmmminent. 2) Pour les dirigeants du monde financier l'omnipotence, l'omniscienc...

à écrit le 16/02/2024 à 23:19
Signaler
"Il ne faut pas obéir à ChatGPT", même s'il est plus intelligent que son chef ?

à écrit le 16/02/2024 à 17:40
Signaler
la limite, tout le monde la connait!!!! avec les ERP on a mis dans les mains d'incopetents des process de gestion qu'ils ne comprennent pas, parametres par des informaticiens qui ne connaissent rien a la gestion; pareil pour le datamining !!!! avec d...

le 16/02/2024 à 20:39
Signaler
Dans un projet ERP bien mené, les informaticiens n'ont pas à intervenir sur le paramétrage de la partie métier, mais ces consultants sont généralement très chers et si vous avez fait appel à une boîte low-cost que les bons professionnels connaissent ...

le 16/02/2024 à 20:56
Signaler
P.S : le paramétrage se fait normalement par des consultants des Big Four (KPMG, Ernst & Young...) et c'est sûr que si vous avez fait appel à des pseudo cabinets avec leurs "managers" fraichement diplômés d'une obscure Sup de Co et mentant comme des ...

à écrit le 16/02/2024 à 17:36
Signaler
Utiliser un assistant créatif c'est faire abstraction de son pourvoir de création ! ;-)

le 17/02/2024 à 10:12
Signaler
@bref - 😃👍

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.