Le rôle des médias dans le débat public à l’ère de l’IA et de la propagande ciblée

Dans la foulée des inquiétudes suscitées par la guerre en Iran, on parle beaucoup ces jours-ci des fausses informations générées par l’IA et diffusées par des robots ou de faux comptes. Sur ce sujet, un aspect de la question semble toutefois moins souvent abordé, soit celui de la personnalisation des contenus en fonction du caractère et des préoccupations de chaque individu. 

Depuis déjà plusieurs années, l’une des menaces les plus potentiellement déstabilisatrices pour l’espace public ne réside pas uniquement dans la production de « faux » contenus, mais la diffusion de contenu « sur mesure ». Ces messages, parfois à connotation politique, sont personnalisés pour chaque individu et diffusés discrètement, à l’abri de toute exposition publique. Le plus souvent, ils sont conçus pour susciter une réaction émotionnelle plutôt que pour éclairer le jugement.

Pour illustrer ce phénomène, imaginons un gouvernement cherchant à faire accepter une réforme controversée en matière de surveillance. Plutôt que d’en débattre ouvertement dans les médias, il pourrait choisir d’utiliser les canaux numériques pour diffuser des arguments à différents groupes, en les adaptant au profil et aux préoccupations de chacun.

Dans ce contexte, une dame anxieuse et préoccupée par sa sécurité recevrait une version du message centrée sur la peur et l’urgence d’agir. 

De son côté, une jeune femme très attaché aux valeurs civiques et sensible aux questions de libertés publiques, recevrait un message anticipant ses objections et promettant la transparence et une supervision indépendante pour prévenir les dérives.

Enfin, un homme plus âgé, souvent critique à l’égard des finances publiques et sensible aux questions d’efficacité, recevrait des arguments mettant l’accent sur la réduction des coûts et la rationalisation des dépenses. Le message qui lui serait destiné écarterait toute dimension idéologique et présenterait la réforme comme une mesure d’optimisation purement pragmatique.

Ainsi, on peut se demander quelles conséquences cette pratique pourrait avoir sur le débat public.

Dans une démocratie délibérative, les arguments doivent de préférence être exposés dans un espace commun, où chacun peut en discuter et s’en servir pour se former une opinion. Or, le ciblage personnalisé rend certaines communications politiques moins visibles pour l’ensemble des citoyens, ce qui empêche de débattre sur les mêmes arguments. Chacun réagit à une version différente du message, calibrée selon ses préoccupations, ses valeurs ou ses émotions. 

Heureusement, des travaux récents sur le sujet suggèrent que l’usage de messages politiques hautement personnalisés demeure encore limité. [1] En outre, les recherches montrent également que les effets persuasifs des publicités politiques en ligne sont généralement modestes[2]. En ce qui concerne la propagande sur des sujets comme la guerre, les recherches montrent qu’elle est très présente, mais que ses effets varient.

Cependant, cette situation pourrait évoluer rapidement. En effet, l’essor de l’intelligence artificielle générative réduit fortement les coûts et les contraintes liés à la personnalisation. Elle permet notamment de produire facilement plusieurs versions d’un même message. Par conséquent, ce qui était autrefois coûteux et difficile devient aujourd’hui accessible à tous.

Dans ce contexte, comment préserver un débat public sain ? 

En principe, les médias traditionnels devraient être les mieux placés pour continuer à remplir ce rôle. En mettant en évidence les stratégies d’influence et en confrontant publiquement les discours diffusés de manière fragmentée, ils pourraient reprendre le contrôle du débat public et soumettre ces arguments à l’examen critique des citoyens. Bien entendu, cela représenterait pour eux du travail, et nécessiterait d’adapter certaines pratiques. Reste donc à savoir si les médias traditionnels seraient prêts à consentir ces efforts et à s’engager davantage dans les discussions en ligne afin de continuer à assumer une fonction qui leur a historiquement été attribuée.

[1] Mads Hove, 2025, The Nature and Consequences of Online Political Microtargeting. Aarhus University, Supervisors: Prof. C.H. de Vreese and Prof. S.B. Hobolt. Co-supervisor is Prof. A. van Dalen

[2] Felix M. Simon and Sacha Altay, 2025, Don’t Panic (Yet): Assessing the Evidence and Discourse Around Generative AI and Elections, Knight First Amend. Inst., 25-14 

Suivant
Suivant

Pourquoi tant d’organisations échouent à communiquer sur Internet ?