Au milieu des dizaines d’ateliers et plénières auxquels nous avons pu assister lors de la 35ème édition du forum Cap’Com, un sujet a attiré les foules, suscité les conversations, voire généré quelques frustrations (tant il y aurait matière à discuter des heures pour tenter de le cerner). Ce sujet, c’est celui de l’intelligence artificielle et sa place dans nos pratiques de communicants.
IA ou pas IA, là n’est plus la question
Deux formats ont été spécifiquement dédiés à l’IA. Lors d’une conférence Grand Angle, animée par Marc Cervennansky, Responsable web réseaux sociaux de Bordeaux Métropole et Noémie Buffault, Cofondatrice de Leksi, agence conseil digitale pour l’intérêt général, c’est le cadre général des pratiques qui a été évoqué, partant d’un constat implacable : l’IA n’est pas, n’est plus, une chimère.
Un quart des collectivités déclare ainsi avoir déjà eu recours à l’IA, et au sein de cette communauté, 44% sont des métropoles, 36% des départements et 30% des régions selon la deuxième édition du baromètre national sur la data dans les territoires par l’observatoire Data Publica et ses partenaires publiée le 16 novembre 2023. Majoritairement représentés, les modèles conversationnels (à l’instar des chatbots intelligents, assistants vocaux et plates-formes d’assistance client pilotées par IA), suivis des modèles prédictifs.
Mais l’IA générative qui se concentre sur la création de nouveaux contenus, qu’il s’agisse de textes, d’images, de musique ou même de code de programmation dont l’exemple le plus connu à ce jour est ChatGPT de la société OpenAI, semble aujourd’hui celle qui suscite la majorité des questions. En cause ? Son adoption rapide (disponible gratuitement depuis fin novembre 2022, ChatGPT atteignait quelques semaines plus tard un nombre d’utilisateurs mensuels actifs estimé à 100 millions, devenant « l’application grand public qui connaît la croissance la plus rapide de l’Histoire ») qui n’épargne par les communicants publics.
Pas sans peur et sans reproches
Comme dans de nombreux secteurs, l’adoption de ces outils génère crispations et peurs notamment face à la remise en question des pratiques et des métiers. Mais on constate aussi que l’IA, fascine, l’IA passionne, face à la promesse de nouveaux usages encore insoupçonnés. Les expérimentations se multiplient donc. Dans les collectivités, certains hésitent, d’autres tâtonnent, d’autres foncent. Mais tous sont confrontés aux mêmes questions.
- Le sujet de la confiance et de la sécurité en ces solutions d’abord. Quel destin pour les données communiquées ? Encore plus quand les solutions sont étrangères ?
- Le sujet de l’éthique : les systèmes d’intelligence artificielle donnent des résultats biaisés. La technologie des moteurs de recherche n’est pas neutre, ainsi, un moteur de recherche peut devenir une chambre d’écho qui maintient les préjugés du monde réel et enracine davantage ces préjugés et stéréotypes en ligne.
- Le sujet de la frugalité : l’utilisation de données volumineuses permet des améliorations de pratique, mais elle présente aussi de lourdes conséquences sur le plan environnemental. Effectivement, le développement de certains modèles d’intelligence artificielle consomme beaucoup d’énergie. Ces derniers s’appuient sur des sources de données toujours plus volumineuses avec des calculs de plus en plus lourds.
- Le sujet du droit d’auteur qui englobe trois volets clés : celui du consentement (l’exploitation des œuvres sans autorisation préalable par des IA génératives va à l’encontre du droit moral fondamental des auteurs sur leurs propres créations), celui du crédit (s’agissant des créations (textes, images, musiques, vidéos) même en libre accès, les modèles d’IA génératifs devraient systématiquement créditer leurs sources), et enfin celui de la rémunération des auteurs (à l’heure actuelle, les entreprises à l’origine des IAG ne versent aucune compensation aux créateurs dont elles tirent profit via l’exploitation des contenus en ligne).
Alors que les pratiques évoluent à pas de géant, et face à un cadre qui commence à se formaliser (en témoigne l’IA Act, premier texte de loi au monde sur l’intelligence artificielle qui, à l’échelle européenne, fait figure d’accord historique visant à contrôler les risques liés à cette technologie sans pour autant en brider l’innovation), les intervenants présents à Cap’Com se sont tous rejoints sur la nécessité et l’importance de tester mais au sein de cadres préétablis. Des cadres à générer, en transparence, et en co-construction avec les principaux concernés afin de se doter « de principes forts sans néanmoins être dogmatiques » selon l’intervenant Yann Ferguson, Docteur en sociologie de l’université Toulouse 2 Jean Jaurès, associé au Centre d’Etude et de Recherche Travail Organisation Pouvoir.
Autre approche intéressante, celle d’Anne-Claire Dubreuil, directrice de projets transformation numérique à la communauté d’agglomération du Sicoval (Haute-Garonne), avance quant à elle le principe d’impulser au maximum l’utilisation de solutions d’IA vertueuses et souveraines. Les collectivités, doivent être à ce titre doivent prescriptrices et exemplaires.
Les pistes de réflexion qui émergent de cette première conférence
- Tester oui ! et c’est même encouragé ! Mais en appliquant une approche méthodique et encadrée. En s’inspirant, par exemple, de ce qui se passe dans les médias.
- Co-construire les usages en interne et les limites du cadre et les partager en toute transparence
- Se former constamment
- Envisager l’approche du travailleur souverain selon Yann Ferguson : c’est au travailleur de décider comment il veut fonctionner avec l’outil IA. Les IA ne doivent pas guider la manière de travailler au sein de l’entreprise, mais au contraire, les travailleurs doivent dominer leur usage.
Et chez Sennse ?
Chez Sennse, l’utilisation de l’intelligence artificielle n’est pas taboue. Nous nous sommes lancés dans une phase d’expérimentation, de questionnement et de déploiement de solutions d’intelligence artificielle appliquée aux différents métiers de l’agence dont on vous dira plus bientôt !