Publié le 09/04/2026
Afin de tendre vers une IA responsable, conception et usage doivent être pensés ensemble. Telle est la conviction des chercheurs en sciences humaines et sociales de la nouvelle équipe-projet Sira, commune à l’INSA Rennes et au Centre Inria de l’Université de Rennes. Pour contribuer à cette approche novatrice, ils ne se contentent pas de grands principes, mais comptent bien étudier la réalité du terrain, afin de mieux comprendre les relations entre IA et société, et de contribuer à la transformation des conditions dans lesquelles elle est conçue, déployée et évaluée.
Inauguration du Laboratoire Fabrique de Pensée Critique (LFPC), un espace dédié à la réflexion interdisciplinaire sur les liens entre sciences, techniques, société et environnement le 20 mai 2025 à l'INSA Rennes
Des SHS dans un monde d’informaticiens
Image
Verbatim
« Les sciences sociales nous permettent de mieux comprendre notre rapport aux technologies, notamment de constater que celles-ci ne sont pas neutres. Elles produisent un effet structurant sur notre société et dès lors, leur conception ne peut pas être séparée de leur usage. Il s’agit d’un continuum qu’il convient de prendre en compte dans son ensemble. »
Auteur
Clément Mabi
Poste
Directeur du Laboratoire Fabrique de pensée critique (LFPC, voir encadré) de l’INSA Rennes et responsable de l’équipe-projet Sira
Le LFPC, entre techniques et soutenabilité
En juillet 2024, Clément Mabi est recruté par l’INSA Rennes, pour une chaire de professeur junior, avec une mission : monter une équipe de recherche en sciences humaines et sociales au sein de l’école d’ingénieurs. Le Laboratoire Fabrique de Pensée Critique (LFPC) voit ainsi le jour en octobre de la même année et se fixe comme objectif de contribuer à repenser les liens entre technologies et soutenabilité, que celle-ci soit écologique, sociale, politique, cognitive, etc. Il développe ses recherches selon deux axes : « Techniques et transitions » et « IA, démocratie et justice sociale » ; l’équipe-projet Sira porte ce dernier.
Et c’est bien là le défi qu’espère relever l’équipe-projet Sira. Un moyen, aussi, de contribuer à une forme de souveraineté numérique, en favorisant des IA conçues au plus près des usages et des contextes locaux.
Créée au sein du LFPC en janvier 2026 et commune à l’INSA Rennes et au centre Inria de l’université de Rennes, Sira s’inscrit pleinement dans la stratégie de développement des sciences humaines et sociales (SHS) engagée depuis 2021 par Inria. « À travers des actions exploratoires, des délégations ou encore le lancement du LaborIA, l’Institut souhaite disposer de ressources internes pour accompagner une lecture de la recherche en numérique aux prises avec les enjeux de la société », expose Romain Badouard, chercheur ISFP (Inria starting faculty position). Lui-même a bénéficié de cette dynamique : auparavant maître de conférences en sciences de l'information et de la communication à l'université Paris II Panthéon-Assas, il a été recruté par Inria en octobre 2025 lors de l’ouverture de trois postes de chercheurs en SHS. Aujourd’hui, il est le deuxième chercheur titulaire de l’équipe-projet Sira (au côté de Clément Mabi). Celle-ci compte en outre une ingénieure de recherche, Zoé Aegerter, ainsi qu’une postdoctorante, Julie Marques… et devrait s’agrandir au gré des projets.
Une approche de terrain originale
Le pari de Sira est assez simple, reprend Clément Mabi. Les questions de responsabilité, d’éthique, de confiance liées à l’IA sont généralement étudiées à partir de grands principes, mais nous manquons de données expérimentales pour comprendre comment, dans un contexte précis, les utilisateurs accordent justement leur confiance à l’outil et l’estiment responsable ou non. Ainsi, parmi les publications sur la responsabilité de l’IA, une grande majorité s’avère spéculative et conceptuelle, tandis que la partie portant sur la réalité de terrain reste très minoritaire.
Image
Verbatim
« La problématique est également importante dans la régulation de l’IA, car celle-ci dépend des arbitrages réalisés selon le contexte… et c’est donc sur le terrain qu’il faut aller les étudier. »
Auteur
Romain Badouard
Poste
Chercheur IFSP Inria
L’approche de l’équipe repose sur un double mouvement : des enquêtes classiques en sciences sociales (entretiens, analyses documentaires), et des dispositifs plus interventionnels.
« Notre idée est de réunir des personnes d’horizons différents concernées par un même problème et de les faire réfléchir ensemble, avec un objectif : créer des espaces d’interconnaissances qui permettent de mieux comprendre le numérique, détaille Romain Badouard. Si nous travaillons par exemple sur un algorithme qui attribue des logements sociaux, nous rassemblerons des usagers, des spécialistes du logement social et des concepteurs d’algorithmes pour produire ensemble de la connaissance. »
Image
Verbatim
L'utilisation très large des outils numériques, et en particulier l'intelligence artificielle, dans la société pose des questions nouvelles qui ne peuvent pas être résolues par la science informatique. Nous avons besoin des sciences sociales, de l'économie, du droit, de la psychologie, des sciences politiques pour étudier l'impact du numérique dans la société. L'équipe Sira est un premier pas dans cette direction au sein d'Inria.
Auteur
Patrick Gros
Poste
Directeur du Centre Inria de l’Université de Rennes
Première cible : l’IA dans les services publics
L’équipe appliquera ces méthodologies à chacun de ses deux axes de recherche. L’un, « par le haut », consiste à enquêter auprès des institutions ou entreprises pour repérer les outils et critères dont elles se servent pour estimer si leurs IA sont responsables. L’autre, « par le bas », vise à étudier la façon dont la société civile se saisit de ces enjeux d’éthique et de responsabilité, notamment la manière dont elle conteste des projets d’IA ou propose des alternatives. « Nous souhaitons créer une dynamique qui amène les concepteurs d’IA à penser les effets sociaux de ce qu’ils produisent dès la création de leurs outils », résume Clément Mabi.
Les premiers travaux de l’équipe porteront sur l’usage de l’IA dans les services publics, notamment dans le domaine du bien-vieillir. Un terrain d’études logique, selon Romain Badouard : « Ces institutions s’appliquent à déployer des formes d’IA respectant un certain nombre de critères de responsabilité, car la question de l’équité de traitement des usagers y est particulièrement sensible. Il sera donc intéressant d’étudier ce que signifie la transparence de l’IA dans ce contexte, notamment comment les agents des services publics expérimentent l’IA générative, ou encore comment ceux qui déploient ces outils cherchent à en limiter les biais potentiels. »
Image
Verbatim
La création de l’équipe-projet Sira s’inscrit pleinement dans la dynamique de la Fabrique de pensée critique portée par l’INSA Rennes, en structurant un espace commun entre sciences du numérique et sciences humaines et sociales. Elle marque une étape importante pour développer des approches interdisciplinaires au service d’une intelligence artificielle plus responsable et mieux ancrée dans les réalités sociales.
Auteur
Vincent Brunie
Poste
Directeur de l’INSA Rennes
Enrichir les connaissances, de l’usage à la régulation
Des séminaires et un colloque
Les 11 et 12 juin 2026, le LFPC organise à l’INSA Rennes le colloque « (Re)prendre la main sur l’innovation ». Pendant deux jours, chercheuses et chercheurs, acteurs publics, professionnels et citoyens, échangeront autour des transformations liées au numérique et à l’IA, replacées dans des enjeux sociaux, politiques et écologiques plus larges. L’objectif est de dépasser les promesses de l’innovation pour interroger concrètement qui la façonne et comment la réorienter. Tables rondes et discussions mettront en lumière des initiatives qui cherchent à construire des technologies plus justes et démocratiques. Inscriptions sur le site : https://www.insa-rennes.fr/lfpc.html
Les autres idées de recherches ne manquent pas : l’équipe souhaite par exemple se pencher sur la façon dont des utilisateurs tentent de contourner les filtres de modération des IA génératives pour leur faire dire ce qu’elles n’ont pas le droit de dire, par exemple en reformulant leurs demandes pour contourner les garde-fous intégrés aux modèles. « Cela nous renseignera sur ce que les usagers attendent en termes de responsabilité ; jusqu’où estiment-ils que l’IA doit résister ? »
Les réponses à ces questions apporteront les données empiriques manquantes pour mieux comprendre les intrications entre numérique et société, mais seront également précieuses pour la régulation de l’IA. « Observer la façon dont les grands principes s’appliquent sur le terrain, c’est aussi aider le régulateur à proposer des cadres plus adaptés », note Romain Badouard.
Les travaux de Sira pourraient ainsi s’inscrire dans la dynamique portée par l'Institut national pour l’évaluation et la sécurité de l’IA (INESIA), créé en France en 2025 et dont Inria est l’un des partenaires fondateurs. « Nous partageons la conviction qu’il faut donner une portée sociale et politique à la recherche en numérique et qu’il faut pour cela introduire une nouvelle culture, une nouvelle grammaire, conclut Clément Mabi. Ce n’est qu’ainsi qu’il sera possible de penser le numérique autrement. »
En savoir plus
- « La technique n’est pas neutre » : à Rennes, les ingénieurs poussés à aiguiser leur sens critique, Ouest France, 25/5/2025.
- Clément Mabi : comment le numérique a-t-il transformé le débat public ? (vidéo), Observatoire des politiques culturelles (OPC), 6/1/2022.
- Le numérique au service de l’intérêt général ? Conférence de Clément Mabi (vidéo), Web2day, 20/6/2019.
- Design et manipulation : quel avenir pour les réseaux sociaux ? Conférence de Romain Badouard(vidéo), TEDxPanthéonAssas, 27/06/2023.