Fiabilité et protection des contenus en ligne : quel est l’impact de l’IA ?

Compatibilité
Sauvegarder(0)
partager

Mis à jour le 08/07/2025

Comment détecter un texte ou une photo générés par une intelligence artificielle ? Peut-on "sécuriser" du contenu afin qu’il ne soit pas reproduisible par des IA ? Comment vérifier et assurer la neutralité de l’IA ? Avec une mini bande dessinée aux enjeux abordés avec pédagogie et humour, Marie explique les travaux de recherche de l’équipe ARTISHAU sur les failles, dérives et manipulations possibles des contenus à l’ère de l’IA.

Alternative textuelle : 
- Bientôt on ne pourra vraiment plus faire la différence...
- La loi imposera bientôt aux fournisseurs d'IA un mention explicite sur les contenus générés.

Comprendre les vulnérabilités de l'IA

S’interrogeant elle-même sur l’impact de l’intelligence artificielle sur son travail, l’autrice Marie Spénale saisit l’opportunité de sa collaboration avec Inria pour obtenir les réponses aux questions que de nombreux citoyens se posent.

Mieux comprendre pour mieux encadrer

À travers un dialogue entre de Marie et les scientifiques du Centre Inria de l'Université de Rennes, la bande dessinée rend tangible un sujet souvent perçu comme technique ou lointain. En mettant en images la nécessité de marquer de manière ineffaçable des productions générées, les manipulations possibles de contenus (deepfakes) et les risques liés à des IA non transparentes, elle aide à y voir plus clair sur un domaine en pleine actualité. À l’heure où des réglementations comme l’AI Act entrent en vigueur, les travaux de recherche de l’équipe ARTISHAU montrent, de leur côté, comment la recherche s’engage pour concevoir des IA plus sûres, traçables et responsables.

© Inria / Photo C. Morel

Au cœur de l'intelligence artificielle

Construire une IA responsable et éthique avec les industries nationales et européennes.

Coordonnées
Inria