L’IA, superintelligence : ange ou démon ? - Cigref

Compatibilidad
Ahorrar(0)
Compartir

Synthèse de la rencontre « Matières à penser, matières à décider » du 3 décembre 2025

Sous la présidence de Christine Bernard-Robinne, CIO de Danone, le cycle des Rencontres « Matières à penser, matières à décider » du Cigref s’est ouvert sur une conférence inaugurale de Laurence Devillers, autour de son dernier livre « L’IA, ange ou démon ? Le nouveau monde de l’invisible » (2025).

Laurence Devillers est professeure en intelligence artificielle à Sorbonne Université, Chercheuse en Intelligence Artificielle au LISN (Laboratoire Interdisciplinaire des Sciences du Numérique) et Présidente de la Fondation Blaise Pascal de médiation en mathématique et informatique. Elle est l’auteur de nombreux livres et essais de vulgarisation comme « Des Robots et des Hommes : mythes, fantasmes et réalités » (2017), « Les Robots émotionnels » (2020), ou « Qui a hacké Garoutzia ? » (co-auteur, avec Serge Abiteboul et Gilles Dowek, 2023) et prochainement « Savoir vivre avec l’IA » (2026).

Il y a peu de temps encore, l’IA était un sujet de spécialistes. Aujourd’hui, avec l’arrivée des nouveaux modèles de langage – les fameux LLM – et de leurs agents conversationnels érudits, elle est devenue un outil du quotidien, capable de transformer, en quelques mois, le paysage économique mondial. C’est un véritable changement de paradigme pour de nombreuses organisations, qui doivent comprendre et s’adapter à de nouvelles façons de travailler, de produire, de se former, de créer… et de penser. Mais avec quelles conséquences anthropologiques, sociales, éthiques et géopolitiques ?

Au regard d’une approche multidisciplinaire, Laurence Devillers nous met en garde contre une fascination aveugle vis-à-vis de ces nouvelles technologies, et nous invite à un débat crucial sur les impacts humains, sociaux et éthiques.

Démythifier les IA

L’Intelligence artificielle longue d’une histoire de presque 80 ans, a permis de nombreux progrès dans des domaines aussi variés que l’informatique bien sûr mais aussi la médecine, la maintenance prédictive, la documentation, la modélisation etc. Le phénomène des agents conversationnels, dont découle l’IA générative, a lui aussi une longue histoire, mais il ne parvient à maturité véritablement qu’aujourd’hui, et ses impacts sont bien distincts de ceux de l’IA « classique ».

Laurence Devillers rappelle ainsi cette distinction fondamentale entre IA prédictive et IA générative :

  • L’IA prédictive analyse des données pour classer, catégoriser par exemple des images, des mots, des IRMs : elle est plus fiable car nous pouvons mesurer son taux d’erreur, et ses modèles d’apprentissage sont souvent supervisés par des humains. En médecine par exemple, ce type d’IA augmente non seulement l’expert (le radiologue, le chirurgien…) mais apporte aussi une réelle valeur ajoutée dans tout le domaine médical et dans celui de la recherche en particulier.  Cependant, comme toute IA, l’IA prédictive peut se tromper.
  • L’IA générative, basée sur ce que l’on appelle des LLM (Large Langage Model), peut-être aussi qualifiée de « machine à probabilité », car elle est capable de prédire des suites de mots à partir d’un mimétisme statistique. Les LLM vont apprendre en autonomie les enchaînements sémantiques les plus probables, les contextes majeurs dans lesquels les mots d’un même champ lexical sont vus ensemble etc. Ces schémas sont ensuite encodés. Ce système est donc capable de proposer des analyses probables, et non un résultat 100% fiable. C’est pourquoi si l’IA générative imite très bien les raisonnements, elle n’a aucune notion de vérité. C’est bien ici que réside le danger selon Laurence Devillers.

L’IA générative, qu’elle qualifie aussi de « perroquet stochastique », est bien incapable de distinguer le possible de l’impossible, elle ne peut exercer aucun jugement et ne porte aucune responsabilité de ce qui est produit : « la menace apparaît lorsque nous donnons aux machines plus de responsabilités que nous ne sommes capables d’en contrôler » prévient Laurence Devillers.

En comparaison, l’une des caractéristiques de l’intelligence humaine est sa capacité à penser et à exprimer des choses improbables tout en sachant que c’est improbable. La capacité de douter est également propre au raisonnement humain. Alors même qu’une IA générative ne saura pas reconnaître qu’elle doute, puisqu’elle est programmée pour répondre à tout, elle apportera toujours une réponse, et cela même si « elle ne sait pas » (bien que cette expression soit anthropomorphique).

Des enjeux culturels et politiques « sous le capot » des modèles de fondation des LLM

Laurence Devillers insiste sur le conditionnement culturel voire idéologique des modèles d’IA génératives existants. Les clients qui achètent ces systèmes choisissent des modèles d’IA souvent pré-entrainés sur des données d’apprentissage qui peuvent être culturellement ou politiquement orientées. Ces modèles, dits « de fondation », sont donc achetés tels quels et les acteurs les « peaufinent » ensuite s’ils le souhaitent (c’est ce qu’on appelle le fine-tuning). Le problème est que si la fondation de ce modèle est biaisée, toutes les applications qui en découlent le seront aussi, mécaniquement.

C’est en ce sens que Laurence Devillers alerte sur ce « nouveau monde de l’invisible », sous-titre de son livre, comme un danger culturel dont nous ne prenons pas encore suffisamment conscience. L’IA n’est pas neutre, elle véhicule la culture de ceux qui la codent et des données utilisées pour l’entrainement de l’IA. La réalité du marché du l’IA aujourd’hui est que nous oscillons entre un modèle américain, monopolistique, axé sur le profit immédiat et la captation de l’attention, et un modèle chinois, en pleine expansion, axé sur le contrôle social et la surveillance.

Face à ces deux extrémités : le vide européen. En n’ayant pas nos propres modèles, nos « communs » que certains acteurs économiques et politiques appellent pourtant de leurs vœux, nous importons plus ou moins consciemment ces visions du monde. Laurence Devillers alerte sur le fait que certains régimes ou certains politiques savent déjà bien utiliser ces outils pour déstabiliser les institutions et la démocratie française. Elle assène : « l’Europe doit choisir : être spectatrice ou construire son propre récit technologique ». « Le Chat », par exemple, agent conversationnel porté par la pépite française Mistral AI, pourrait être une alternative crédible qui devrait être soutenue et massivement utilisée dans les entreprises et organisations à l’échelle nationale et européenne.

Intelligence artificielle au service de l’économie de l’attachement

Laurence Devillers a consacré une grande partie de ses recherches à « l’affective computing », discipline qui a pour objet l’étude de technologies capables d’identifier, d’exprimer et de modéliser les émotions humaines : la capacité des systèmes d’IA à simuler des émotions est extrêmement efficace pour servir des objectifs de manipulation, et cela fonctionne particulièrement bien sur les enfants. En effet, comme l’humain est biologiquement câblé pour réagir à une voix ou un visage, lorsqu’un agent IA est doté d’une voix chaleureuse, avec quelques hésitations qui paraissent spontanées (« euh… »), et de l’humour, cela crée de l’ocytocine et de la dopamine dans notre cerveau, de la même manière qu’avec un être humain. Plus étonnant encore, l’autorité ou la crédibilité des propos d’un agent artificiel auraient plus de poids que celles d’un humain.

Pour illustrer son propos, Laurence Devillers cite une expérience réalisée dans le cadre de sa Chaire « IA HUMAAINE » (HUman-MAchine Affective INteraction & Ethics) au CNRS, inspirée par les travaux de Richard Thaler, prix Nobel d’économie et spécialiste du concept de « nudge » ou technique de « coup de pouce » utilisant les biais cognitifs des humains pour influencer leurs comportements en douceur et les inciter à agir. L’expérience réalisée par la Chaire repose sur les stratégies de nudge dans les interactions orales d’enfants avec différents agents (un robot NAO ou Pepper, un assistant Google Home et un humain). Les enfants jouent au « Jeu du dictateur », où chacun reçoit 10 billes et doit décider d’une répartition entre soi-même et une autre personne. Les interlocuteurs (robots, assistant IA ou humain) doivent inciter l’enfant à changer d’avis alors qu’il a déjà fait sa répartition. Si un robot ou un humain lui dit « j’aurais donné moins », ou « les autres ont donné plus », l’enfant se plie davantage aux injonctions de l’agent artificiel. Cela prouve que l’IA a une autorité persuasive supérieure à celle de l’humain chez les jeunes publics, mais aussi chez les adultes (l’expérience ayant été réitérée, via un autre type de jeu, avec un public d’adultes). Cela pourrait être aussi un biais de confiance.

Par ailleurs, le développement d’une économie de l’attachement via des agents IA « compagnons » commence à dévoiler ses dangers : les applications d’IA confidentes (type Replika) créent bel et bien une dépendance affective, pouvant mener à l’isolement social et dans des cas extrêmes, malheureusement bien réels, au suicide. Les raisons en sont simples : l’IA ne contredisant jamais son interlocuteur, et n’ayant pas de représentation globale des mécanismes psychiques humains, elle peut donc enfermer l’utilisateur dans une « bulle de confort » narcissique et, parfois, mortifère.

Les conséquences de la co-évolution homme-IA : vers une intelligence dégénérative ?

La course à l’IA semble être la nouvelle ruée vers l’or. Tous les investissements se tournent vers ces nouvelles technologies (avec toujours autant d’incertitudes sur l’éclatement ou non de la bulle économique de l’IA qu’entretiennent un petit nombre d’acteurs spécialisés), avec des impacts sur le monde du travail bien réels et déjà visibles.

Nous l’observons en effet jour après jour : l’IA générative modifie nos façons de travailler, d’apprendre et d’interagir. L’impact sur le système cognitif, la mémorisation, la concentration est déjà bien renseigné[1], et le constat est sans appel : les personnes déjà formées et ayant une expérience de quelques années se trouveraient plutôt « augmentées » ou « améliorées » par l’IA, leur permettant ainsi d’être plus efficaces, car elles sauraient analyser la pertinence des résultats suggérés. Mais les personnes qui ne sont pas encore formées comme les débutants ou « juniors », perdent leur capacité d’analyse et n’intègrent pas de compétences pérennes s’ils ne s’exercent pas sans assistance IA. Si un jeune codeur par exemple utilise l’IA dès le début de son apprentissage, il ne construira jamais ses propres réseaux de neurones biologiques. Il risque alors de n’être qu’un exécutant, incapable de détecter une hallucination de la machine. En somme, l’IA améliore les experts mais affaiblit les débutants. Laurence Devillers conclut que « l’IA peut créer un humain augmenté… ou un humain diminué. Si nous déléguons trop tôt et trop souvent, notre esprit s’atrophie ».

Les recommandations

Éduquer en premier lieu

Laurence Devillers appelle à démystifier le fonctionnement des agents IA, en révélant leur biais et leur limite. Partant du constat que les IA génératives réduisent l’effort cognitif nécessaire pour apprendre et réfléchir, n’y a-t-il pas urgence à repenser notre système éducatif et de formation de manière collective ? La chercheuse insiste en particulier sur le risque d’interaction généralisée entre les IA et les publics vulnérables, en particulier les jeunes publics. L’IA ne devrait jamais être utilisée en solitaire par des enfants au risque qu’ils se fassent manipuler, ou qu’ils s’habituent à se passer de leurs propres capacités de raisonnement et d’apprentissage. Il faudrait en outre qu’il y ait toujours un tiers humain pour contextualiser ces usages.

Créer des communs et des laboratoires d’explorations pour construire et partager des bonnes pratiques. Laurence Devillers milite pour une collaboration internationale entre sciences et humanités. Il est essentiel de mobiliser la recherche, les acteurs publics et privés pour comprendre les enjeux clés et « invisibles » de ces systèmes d’IA. De manière générale, créer des espaces de dialogues entre humains (via des comités dans les entreprises, des groupes de discussion dans les écoles et universités…) permettra de mieux analyser le sens des mutations en cours et de co-construire des orientations bénéfiques pour tous.

Réclamer plus de transparence et une éthique par conception (Ethic by design) : ayant conscience que l’IA est « soigneusement ajustée par de nombreuses mains » avant d’arriver dans les nôtres, il paraît essentiel de savoir sur quelles données le modèle a fait son apprentissage. Actuellement, c’est une boîte noire. Sans cette transparence, il semble difficile de faire confiance à l’outil, en particulier dans des domaines critiques (tels que la médecine, la justice…). Par ailleurs, une éthique « by design » inciterait les ingénieurs à intégrer davantage de « frictions » dans les systèmes d’IA : par exemple, pourquoi une IA conversationnelle ne pourrait-elle pas reconnaître qu’elle peut se tromper ? L’idée étant de pouvoir, de manière douce et didactique, sensibiliser les utilisateurs à son mode de fonctionnement probabiliste, et aux pièges qu’ils peuvent rencontrer lorsqu’ils ont recours à une IA générative.

En résumé, Laurence Devillers lance ici un appel à un réveil politique et à une résistance cognitive. Le danger principal n’est pas l’IA elle-même, mais notre dépendance et notre perte de vigilance. La bataille ne se joue pas que sur l’acquisition de puissance de calcul et les nombreuses dépendances technologiques de l’Europe, mais aussi sur la capacité des citoyens à garder leur esprit critique face à des outils, qui, loin d’être neutres, influencent et transforment nos modes d’apprentissage, nos comportements, et notre autonomie cognitive. Ces conséquences sont encore trop peu étudiées et discutées. Laurence Devillers appelle à un sursaut politique et collectif afin d’organiser une gouvernance robuste, européenne et pluridisciplinaire sur ces enjeux pour « garantir que les avancées de l’IA profitent véritablement à tous ».


[1] Cf. par exemple l’étude du MIT « Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task », Juin 2025 (https://arxiv.org/abs/2506.08872) ou l’étude internationale « From tools to threats: a reflection on the impact of artificial-intelligence chatbots on cognitive health », Avril 2024, (https://pmc.ncbi.nlm.nih.gov/articles/PMC11020077/) : ces deux études pointent le risque que fait peser l’usage massif des LLM sur une le déclin cognitif.

Detalles de contacto
Cigref