« L’intelligence artificielle n’est pas une technologie, c’est un contrat de société » (Jean-Philippe Desbiolles, IBM)

ENTRETIEN - Si elle n’est plus le seul apanage des startups, désormais parfaitement intégrée aux business-model des grands groupes, l’intelligence artificielle suscite autant d’intérêt, d’enthousiasme que de craintes, selon que l’on parle d’IA faible ou forte, alors que certains spécialistes des algorithmes – à l’instar d’Aurélie Jean – multiplient les exercices de pédagogie, histoire de tordre le cou aux fantasmes et autres a priori. Un exercice auquel se prête aussi bien volontiers le vice-président de la division Intelligence artificielle d’IBM. Présent au récent World AI Festival qui s’est tenu à Cannes, celui que Forbes a surnommé French Doctor Watson décrypte et analyse. Se projette aussi. Sans langue de bois.
(Crédits : DR)

LA TRIBUNE - Aujourd'hui, pas une startup ou un grand groupe qui n'intègre l'intelligence artificielle dans sa R&D, ses produits... L'intelligence artificielle est-elle intégrée de la même façon dans tous types d'entreprises ?

JEAN-PHILIPPE DESBIOLLES - Une étude menée par IBM en 2022 auprès de 5.000 executives sur 15 marchés, au sens géographique du terme, dont la France, a démontré que l'IA est déployée au sein de 28% de très grosses entreprises, 29% de grandes entreprises, 18% de moyennes entreprises et 25% de petites entreprises 25%. Ce qui est un bon mixte de profils. Mais ce qui m'a marqué, c'est que 1/3 des personnes interrogées disent déployer l'intelligence artificielle activement. Plus de 43% expliquent être en phase d'exploration active. Cela montre que l'on a devant nous un grand mur d'accélération. Le mur de l'adoption est devant nous et pas derrière nous.

On remarque une différence d'adoption entre grandes entreprises et startups d'un côté et moyennes entreprises de l'autre... Comment cela s'explique-t-il ?

Dans cette étude il est clairement ressorti qu'il y a une vraie différence entre l'adoption des entreprises dites grosses et des petites. C'est pour moi une interrogation. Les grands groupes ont tous des projets d'IA et les petites entreprises, non. Or, on ne peut pas dire que cela soit une question d'argent, car les questions d'IA et d'open source ne coutent pas grand-chose et le ticket d'entrée de la technologie aujourd'hui c'est largement démocratisé. Est-ce une question de compétences en tant que telle ? Peut-être, mais il ne me semble pas si difficile que cela te recruter des jeunes soit des stagiaires, soit des jeunes étudiants qui sortent d'écoles qui ont développé des compétences en la matière. Cela ne constitue pas une barrière à l'entrée. Il y a 10 ans ou 5 ans, je n'aurais pas tenu le même discours, il y a 5 ans je n'aurais pas tenu le même discours. Aujourd'hui, l'accès à la techno est assez facile. La raison se situe sans doute ailleurs. Peut-être les PME considèrent-elles que le sujet n'est pas stratégique pour elles. Peut-être ont-elles d'autres obligations plutôt que d'explorer des cas d'applications dans le domaine de l'intelligence artificielle. Pourtant, l'IA est un élément stratégique de transformation vis-à-vis des clients finaux et de l'entreprise en tant que telle. Elle s'intègre pleinement dans toutes les activités, qu'elles soient des activités industrielles, des activités de service, des activités très manuelles. L'IA est de plus en plus intégrée dans les entreprises, quel que soit leur secteur d'activité.

Vous évoquez deux tendances, l'IA de confiance - on a beaucoup évoqué notamment le sujet d'une IA éthique - et l'IA à l'échelle...

On a tendance à la considérer l'intelligence artificielle de confiance sous le prisme réglementaire. Or, le vrai sujet de l'IA de confiance ce n'est pas un sujet réglementaire mais bien un sujet de confiance. Sans confiance, il n'y a pas d'adoption. S'il n'y a pas d'adoption, il n'y a pas de ROI (retour sur investissement NDLR). Et si pas de ROI, il n'y a pas d'IA à l'échelle. Le sujet de l'IA de confiance est un sujet fondamental car il faut se conformer à la réglementation - cela ne se discute pas - et surtout parce qu'il faut être capable de démontrer de manière objective que ce que vous faites dans l'IA est digne de confiance. C'est cela qui va générer l'appropriation et l'adoption par les utilisateurs finaux, permettant de générer du ROI et donc la mise à l'échelle de l'IA. Voilà le cercle vertueux.

L'IA de confiance repose sur cinq critères qui ne sont pas toujours perçus clairement. D'abord, fondamentalement, la confiance dans l'IA est dépendante de deux grands vecteurs - et je n'en vois pas d'autres - que sont la data et le processus d'apprentissage. Si l'un des deux ne fonctionne pas, l'IA ne provoquera pas de résultats. Cela oblige à être extrêmement vigilants sur la qualité des informations que nous fournissons afin d'entraîner les modèles et être tout autant vigilants sur le processus d'apprentissage afin que le tout soit compatible avec les valeurs que l'on prône.

Par ailleurs on regarde l'IA de façon très silo. C'est un peu, le modèle, le modèle, le modèle... Certes, le modèle est important mais il faut regarder le processus dans son ensemble, car c'est lui crée la confiance. Autre point, l'explicabilité, la robustesse, la transparence... constituent des critères, qui, selon l'usage, n'ont pas la même importance. Et puis, évoquons le côté biaisé de l'IA. Bien sûr que l'IA est biaisée. Mais le monde, l'humain sont biaisés. Tout un chacun est porteur de biais du fait de son histoire, sa culture, ses valeurs, son éthique personnelle... C'est ce qui permet d'avoir un recul différent par rapport à l'IA, qui est, quelque part, notre miroir. Donc le vrai problème ce n'est pas l'IA, mais nous-même. On peut débiaiser l'IA en la biaisant. On en vient à réaliser l'IA en soit n'est ni mauvaise ni bonne, elle sera ce que nous en ferons. Ce qui me fait répéter qu'il faut garder l'humain dans la boucle de décision car in fine, l'intelligence artificielle un sujet sociétal, c'est un contrat de société. Ce n'est pas une technologie, elle fait partie de notre société.

Quelles seront les prochaines évolutions ?

Dans quelques années, la préoccupation ne sera plus de démontrer que ce qui a été fait dans l'IA est transparent, explicable, robuste... mais de justifier la prise d'une décision et de justifier pourquoi elle a été prise seule, ou en ayant recours à l'IA, ou une combinatoire entre l'IA et l'humain. Cette question-là est fondamentale. Dans un monde dans lequel on veut tout objectiver, il sera difficile de répondre. Nous avons mené une expérimentation où il ressort que la décision de l'humain est meilleure quand on l'oblige à voir la recommandation proposée par l'intelligence artificielle. C'est l'un des sujets majeurs de demain. Nous allons devoir travailler avec les sciences cognitives sur la prise de décision.

La France est dotée de quatre instituts 3IA, à Sophia-Antipolis, Toulouse, Grenoble et Paris. A quoi ces instituts servent-ils vraiment ?

Je suis convaincu que la création d'un écosystème autour de l'IA, capable de créer des pôles d'excellence est indispensable à l'accélération du déploiement de l'IA à l'échelle européenne. Je crois beaucoup au partenariat public/privé académique, aux forces additionnées. L'intelligence artificielle doit nous amener à exercer davantage notre esprit critique. Chat GPT, dont on parle énormément en ce moment, est l'exégèse de tout cela. Or il faut toujours jouer en différence.

Sujets les + lus

|

Sujets les + commentés

Commentaires 2
à écrit le 23/02/2023 à 17:10
Signaler
les ANN, profonds ou pas, datent des annees 50, et ont ete formalises mathematiquement par Halbert White, donc on sait d'ou on vient et on sait a peu pres ou on va, meme si de nouveaux modeles sortent; le reste est une question d'usages, de projets e...

à écrit le 23/02/2023 à 14:17
Signaler
Rien de mieux pour standardiser l'intelligence et la pensée humaine que de la confier a de l'artificiel et d'en faire une référence !

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.