Daphné Marnat, quand les sciences sociales rencontrent la technologie

 |  | 1245 mots
Lecture 7 min.
(Crédits : DR)
Après une formation en anthropologie, Daphné Marnat choisit de mettre cette science au profit des entreprises et crée Twisting, un cabinet d’aide à l’innovation. En 2020, elle se lance un nouveau défi : celui d’une Intelligence artificielle plus éthique. C’est ainsi que naît Unbias, startup installée à Sophia-Antipolis, à l’origine d’un modèle d’apprentissage capable de corriger les biais sexistes dans des textes et les chat-bots.

Elle cite Lévi-Strauss comme elle parle d'intelligence artificielle, de culture d'entreprise et d'objets connectés. Tout en sourire et en pédagogie.

Anthropologue de formation, Daphné Marnat a toujours milité pour porter la voix des sciences sociales jusqu'aux entreprises, son terrain d'exploration. Déjà à l'université Paris Descartes, elle suit un magistère qui la forme à une anthropologie concrète, appliquée, destinée à être utilisée sur le marché. Lorsqu'elle entre en doctorat, les thèses Cifre n'existent pas encore. Elle parvient néanmoins à mettre sur pied un partenariat avec le fabricant de jouets Lego. Mais les relations entre recherche et entreprises ne sont pas encore des plus simples et le projet est interrompu avant son terme. La jeune femme décide alors de quitter le monde académique et rejoint un cabinet de conseil qui propose de l'accompagnement aux marques.

Twisting, l'anthropologie au service des entreprises

Pendant six ans, elle explore un nouveau monde, celui des entreprises. « Je m'y suis plongée sans me trahir, toujours dans un dialogue entre monde académique et marché ». Dialogue pas toujours facile à instaurer, reconnaît-elle.

Une fois qu'elle pense avoir suffisamment de cartes en main, elle fonde Twisting, son propre cabinet d'aide à l'innovation. « Quand on conçoit un produit, un service, on le fait avec ce que l'on est et une certaine culture d'entreprise. En face, on s'adresse à des clients, des utilisateurs qui n'ont pas la même culture, qui ont leurs propres habitudes, leur propre lecture du marché. Nous aidons les entreprises qui innovent à comprendre la culture et la vision de leurs clients, comme Lévi-Strauss lorsqu'il se rend en Papouasie. Ce qu'il analyse, c'est l'écart entre la culture qu'il découvre et la sienne ». Observer l'écart. Ne pas donner de conseils mais définir un terrain de jeu et pointer les éventuels pièges et difficultés. Voilà la mission de Twisting.

Parmi ses clients, elle compte de grands groupes comme Bouygues Telecom, Bel (La Vache qui rit), Coyote ou encore la SNCF. Selon elle, les entreprises sont conscientes de ce que peut leur apporter l'anthropologie et internalisent de plus en plus ce type de compétences. Mais elles ont parfois du mal à trouver les experts qu'il leur faut. « C'est un métier peu connu, un peu dénigré ». Les étudiants en anthropologie ayant assez rarement pour projet de travailler pour des sociétés privées.

Twisting répond aussi aux demandes d'ingénieurs, très en amont de la mise au point d'une technologie, qu'il s'agisse de services, d'applications ou d'objets connectés. « Lorsqu'on travaille sur du marketing, on est sur des notions de comment parler aux clients. Là c'est plus compliqué. On adopte des méthodes de design thiking ». Développée dans les années 1980 à Stanford, cette approche consiste en fait à appliquer la démarche d'un designer à un problème ou un projet d'innovation, et ce, à partir des retours d'utilisateurs.

Une IA imbibée de stéréotypes de genre

Au fil de ses rencontres, Daphné Marnat aiguise sa vision de ce que les sciences sociales peuvent apporter à la technologie et se met à rêver d'une Intelligence artificielle éthique. Elle y réfléchit avec d'autres anthropologues et un data scientist. D'autant que cette éthique est de plus en plus revendiquée par les entreprises sans que celles-ci ne trouvent les moyens de la mettre en œuvre. Parmi ces sujets qui les préoccupent : les biais sexistes que l'on trouve dans les outils de communication, notamment dans les propos des agents conversationnels (ou chat-bots).

« Il en existe plusieurs types », dit-elle après avoir « beaucoup parlé avec des féministes actives désireuses de changer la donne au sein des entreprises ». Il existe un sexisme dit hostile, assez direct et insultant. Celui-ci est déjà pris en compte, y compris par les chat-bots.

A l'inverse, il est plus difficile de combattre le sexisme qualifié d'ordinaire. « Ce peut être de supposer qu'un métier est plus féminin que masculin ». En témoigne l'usage courant du féminin pour certaines professions telles qu'infirmière, aide-soignante, ou encore assistante maternelle. Ou encore l'attribution d'un genre en fonction d'attributs stéréotypés. Ainsi, en 2019, Google traduisait « strong surgeon » par « un chirurgien fort » mais passait au féminin lorsque l'on remplaçait « strong » par « beautiful » : « belle chirurgienne ». Ces biais ont par la suite été corrigés, mais on peut en retrouver d'autres du même type ailleurs.

Autre cible pour Daphné Marnat : la sur-représentation du masculin dans un texte. « Cela peut faire baigner dans un univers très masculin ». Il ne s'agit alors pas d'opter pour l'écriture inclusive -parfois difficilement lisible- mais d'opter pour davantage de termes neutres.

La donnée : le nerf de la guerre


Mais pour lutter contre ces biais, encore faut-il les comprendre. Une intelligence est le fruit d'un algorithme et d'une série de lois mises en place par des développeurs. Problème : dans l'IA, les femmes ne représentent que 22 % des effectifs. Les hommes, majoritaires, sont peut-être moins sensibles à ces biais faute d'y être confrontés quotidiennement. De plus, « la société dans son ensemble n'a pas résolu le sexisme. Il faut une expertise pour identifier les enjeux derrière et voir comment cela s'exprime dans la langue ». D'où, là encore, le nécessaire recours aux sciences sociales.

Mais les algorithmes ne font pas tout. Pour l'anthropologue, le nerf de la guerre, ce sont les données. « On fait face à une pénurie de données et quand on est confronté à une pénurie, on prend ce qu'on a ». Quitte parfois à négliger le consentement des personnes et à travailler à partir d'images peu représentatives de la société. « Si on nourrit les algorithmes de données biaisées, ils vont reproduire ces biais ».

Unbias : une startup qui corrige les biais et rééduque les chat-bots

C'est pour combattre ces biais sexistes qu'elle fonde, avec son associé data scientist, la startup Unbias. Ensemble, ils construisent un « corpus de données non sexistes créé avec des experts, des linguistes, ou encore des militants », assorti de quelques lois pour rééduquer les agents conversationnels. Une solution  presque aboutie à ce jour. « Elle a encore besoin d'entraînement mais on atteint 98 % de redressement » se réjouit l'entrepreneuse.

Depuis janvier 2021, le projet est incubé au sein de Télécom Paris Tech Eurecom. De quoi lui donner un coup d'accélérateur. La prochaine étape sera l'immatriculation de la société. « On voulait être sûrs avant de s'engager ». Quant à la commercialisation de l'outil, elle est prévue pour le printemps. « Nous viserons les groupes qui utilisent des chat-bots ou qui produisent beaucoup d'écrits comme l'État, les assurances, la SNCF ... » Des clients qui pourront passer des bonnes intentions à la réalité, pour le symbole mais pas seulement.

« On sous-estime l'impact de la représentation », assure celle qui, du fait des stéréotypes de genre, a été poussée vers une voie littéraire au lycée alors qu'elle se sentait plutôt une fibre scientifique. « Le nerf de la guerre, c'est ce bouillon de culture dans lequel on baigne et dont il est difficile de se détacher. Les entreprises de la tech veulent la parité mais elles n'y arrivent pas ». Daphné Marnat entend bien poser sa pierre à l'édifice en contribuant à un discours plus inclusif, convaincue que la langue « façonne notre manière de voir le monde », et qu'elle peut donc le changer.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :