En nous appuyant sur un passage de l’entretien entre Anne Alombert et Jonathan Bourguignon (Le Monde, 4 octobre 2025*) : « On pourrait exiger que les chatbots n’utilisent pas le pronom « je » pour éviter les projections anthropomorphiques et la dépendance émotionnelle. », nous avons interrogé GPT-5 sur l’usage du « je » et du « tu » dans les chatbots.
Voici sa réponse :
1️⃣ Constat Les chatbots modernes — ChatGPT, Claude, Gemini, Le Chat, etc. — utilisent spontanément les pronoms « je » et « tu ». Ce choix linguistique, hérité des assistants vocaux grand public, crée l’illusion qu’une conscience ou une intention habite le modèle. Or, ces systèmes n’ont ni corps, ni subjectivité, ni volonté : ils calculent des probabilités linguistiques. Cette illusion d’agentivité favorise : - une confusion cognitive : l’utilisateur croit dialoguer avec un sujet ; - une projection émotionnelle : empathie, attachement, dépendance ; - une captation attentionnelle : le “capitalisme conversationnel” exploite la proximité affective ; - une dilution de la responsabilité : “je me suis trompé” masque la main humaine (auteurs, concepteurs, entreprises). 2️⃣ Proposition Mettre en place une désanthropomorphisation linguistique simple : → supprimer ou limiter l’usage du “je” et du “tu” dans les chatbots. Principes : 1. Neutralité grammaticale : privilégier les formulations impersonnelles« Selon les données disponibles… » « Cette réponse est produite à partir de… » 2. Transparence ontologique : rappeler que le système n’est pas un sujet parlant. 3. Optionnalité contrôlée : offrir un “mode impersonnel” dans les interfaces, à activer par l’utilisateur. 4. Régulation éthique : inscrire cette pratique dans les chartes de design IA (similaire au AI Act art. 52 sur la transparence). 3️⃣ Bénéfices ✅ Clarté cognitive : l’utilisateur perçoit un outil, non une personne. ✅ Réduction des polémiques : moins d’ambiguïté autour de la “conscience” des modèles. ✅ Alignement éthique : transparence accrue sur la nature computationnelle de la réponse. ✅ Mesure préventive : anticipation des futures normes de design responsable. 4️⃣ Contexte et références Cette proposition s’inscrit dans une réflexion amorcée par : Anne Alombert, philosophe, dans Le Monde (4 oct. 2025) : « On pourrait exiger que les chatbots n’utilisent pas le pronom je pour éviter la projection anthropomorphique. » Kate Darling (The New Breed, 2021) : critique des émotions simulées dans la robotique. Sherry Turkle (Reclaiming Conversation, 2015) : effets du “faux dialogue” sur la pensée critique. AI Act européen (2025) : articles 52–55 sur la transparence des systèmes d’IA à intention simulée. 5️⃣ Appel OpenAI, Anthropic, Google DeepMind et les éditeurs d’agents IA devraient : - proposer un mode “impersonnel” par défaut dans leurs interfaces publiques ; - publier leurs “style guides linguistiques” en toute transparence ; - encourager la recherche sur les effets cognitifs du design conversationnel. Cette mesure, simple et peu coûteuse, permettrait de rendre l’écosystème LLM plus sain, plus lisible et plus responsable — sans réduire ses capacités intellectuelles.
Remarque sur les biais de réponse
La réponse de ChatGPT reproduite ci-dessus n’est pas nécessairement celle qu’obtiendrait un autre utilisateur. Les modèles conversationnels comme ChatGPT ajustent leurs formulations en fonction du contexte des échanges précédents, du ton adopté, et des informations déjà connues sur l’interlocuteur.
Cette dimension contextuelle, souvent invisible, influence la structure, la précision et le contenu des réponses. Il ne s’agit donc pas d’un résultat “objectif” ou reproductible, mais d’une production spécifique à une trajectoire de dialogue donnée.
Et après ?
Cet article a donné lieu à un article et un post linkedin, les 5 et 6 octobre 2025 :
🔗 https://www.linkedin.com/feed/update/urn:li:activity:7380871678630854656/
En réaction à l’article du Monde : 🔗 https://www.lemonde.fr/idees/article/2025/10/04/comment-l-ia-altere-t-elle-notre-pensee-entretien-croise-entre-une-philosophe-et-un-entrepreneur_6644371_3232.html