L'intelligence artificielle n'est plus un risque lointain — elle remodèle activement le paysage de l'information politique. Un nouveau rapport de Kroll, la société mondiale de renseignement sur les risques, documente comment les outils d'IA générative accélèrent la production et la diffusion de la désinformation politique, tout en rendant simultanément plus difficile de tenir les mauvais acteurs responsables.
Le bénéfice stratégique obtenu par les mauvais acteurs grâce au scepticisme généralisé à l'égard du contenu authentique. Lorsque les deepfakes et la désinformation générée par l'IA prolifèrent, les preuves authentiques — enregistrements réels, déclarations réelles — peuvent être rejetées comme fabriquées. La responsabilité s'érode non pas parce que la vérité est cachée, mais parce qu'elle ne peut plus être fiable.
Comment l'IA générative remodèle la désinformation politique
Le rapport Kroll identifie l'IA générative comme un multiplicateur de force pour les campagnes de désinformation. Ce qui nécessitait auparavant une expertise technique significative — fabriquer un clip audio convaincant, produire une vidéo réaliste d'une personnalité publique, générer des milliers de publications plausibles sur les réseaux sociaux — peut désormais être accompli par un seul opérateur avec un ordinateur portable grand public et une connexion internet.
L'ampleur et la rapidité permises par l'IA signifient que la désinformation peut saturer un cycle d'actualités avant que les vérificateurs de faits n'aient le temps de réagir. Pire encore, la qualité visuelle et audio du contenu généré par l'IA s'est considérablement améliorée au cours des deux dernières années, rendant la détection de plus en plus difficile tant pour les systèmes de modération des plateformes que pour les utilisateurs ordinaires.
Le dividende du menteur : Une arme contre la responsabilité
Le constat le plus insidieux du rapport Kroll ne concerne peut-être pas la fabrication — il concerne le doute. Même lorsque des enregistrements authentiques de politiciens, de dirigeants ou de fonctionnaires existent, la prolifération des deepfakes offre aux mauvais acteurs une nouvelle ligne de défense : affirmer simplement que le contenu authentique est généré par l'IA.
Cette stratégie — le dividende du menteur — exploite l'incertitude croissante du public quant à ce qui est réel. Un enregistrement divulgué d'un acte répréhensible authentique peut être rejeté comme un deepfake. Une vidéo vérifiée d'un revirement politique peut être qualifiée de synthétique. Le résultat est un environnement asymétrique où la désinformation bénéficie non seulement de la diffusion de mensonges, mais aussi de l'érosion de la confiance en la vérité elle-même.
Le plus grand risque n'est pas que l'IA crée des faux convaincants — c'est qu'elle fasse passer le réel pour faux. Une fois que le public ne peut plus distinguer les deux, la responsabilité s'effondre.
— Rapport Kroll Risk Intelligence, 2024
Exemples de désinformation par l'IA générative lors des élections
Le rapport documente une série d'incidents avérés des cycles électoraux 2023-2024 dans lesquels le contenu généré par l'IA a joué un rôle matériel dans la formation du discours public :
Audio fabriqué
Des enregistrements vocaux de candidats clonés par l'IA, faisant des déclarations incendiaires, ont été diffusés sur des plateformes de messagerie quelques jours avant l'ouverture des bureaux de vote, sans laisser suffisamment de temps pour des réfutations crédibles.
Imagerie synthétique
Des images photoréalistes représentant des candidats dans des situations compromettantes ont été générées et partagées sur les réseaux sociaux, exploitant les retards de modération de contenu des plateformes.
Propagande automatisée
Des comptes alimentés par des LLM ont généré de grands volumes de messages politiques ciblés, ajustant le cadrage en fonction des données démographiques des utilisateurs pour maximiser l'impact émotionnel.
Déni de contenu authentique
Des séquences réelles de déclarations publiques ont été faussement étiquetées comme générées par l'IA par les sujets eux-mêmes, empêchant la responsabilisation pour les positions et actions documentées.
Planifier l'avenir
Les recommandations de Kroll se concentrent sur trois niveaux de réponse : technique, réglementaire et institutionnel. Sur le plan technique, le rapport appelle à un investissement accru dans les technologies de provenance — l'authentification cryptographique du contenu qui peut établir une chaîne de traçabilité pour les enregistrements et images authentiques. Sur le plan réglementaire, il exhorte à une adoption plus rapide des exigences d'étiquetage de l'IA, en particulier pendant les périodes électorales, et à une plus grande responsabilité pour les plateformes qui amplifient le contenu politique généré par l'IA non vérifié.
La dimension institutionnelle est peut-être la plus difficile à aborder. Reconstruire la confiance du public dans les preuves authentiques exige un effort soutenu de la part des organisations médiatiques, des groupes de la société civile et des acteurs politiques eux-mêmes. Le rapport Kroll conclut que l'inaction n'est pas une option neutre : à mesure que les capacités de l'IA progressent, la fenêtre pour établir des normes robustes et des garanties techniques se rétrécit.
Pour les professionnels de la politique de l'UE, les implications sont directes. Les obligations de la Loi sur l'IA concernant la transparence et l'étiquetage des médias synthétiques sont un point de départ — mais les conclusions du rapport suggèrent que les délais de mise en œuvre pourraient devoir être accélérés pour suivre le rythme des réalités de déploiement sur le terrain.
Kroll est un fournisseur mondial de solutions de conseil en risques et financiers. Leur rapport 2024 sur l'IA et la désinformation politique s'appuie sur des études de cas issues de la surveillance électorale sur quatre continents, des entretiens avec des spécialistes de la sécurité des campagnes, et l'analyse des opérations d'influence documentées générées par l'IA au cours des 18 mois précédents.
Analyses connexes