La campagne électorale en vue des élections de mars 2026 est désormais ouverte. Cette année, elle se distingue par une intégration accrue des technologies numériques dans la vie politique locale.
L’intelligence artificielle (IA), désormais à la portée de tous, s’impose dans les stratégies de campagne et transforme en profondeur les modes traditionnels de communication politique. À la fois outil d’innovation et source potentielle de dérives, elle soulève des questions essentielles quant à la régulation et à la loyauté du débat électoral.
1. L’intelligence artificielle, nouvel outil de campagne
Les outils d’intelligence artificielle permettent aujourd’hui de générer des images, des vidéos, des discours et des messages personnalisés à une vitesse et une échelle inédite. Ils offrent aux candidats la possibilité d’analyser les comportements électoraux, de mieux cibler leur communication ou d’adapter leurs arguments à des publics précis.
Ces pratiques peuvent rendre les campagnes plus efficaces mais elles posent également des questions fondamentales quant à l’authenticité de l’information diffusée. Les technologies de génération de contenus (i. e ; IA générative), en particulier les deepfakes, permettent de produire des représentations trompeuses, susceptibles d’altérer la perception du public ou de porter atteinte à la réputation d’un adversaire.
Dans un tel contexte, la frontière entre communication politique et manipulation de l’opinion devient plus ténue. L’enjeu pour les candidats et leurs équipes sera de maîtriser ces outils sans franchir les limites posées par le droit électoral, notamment celles qui encadrent la neutralité et la loyauté de la communication en période préélectorale.
2. Le cadre posé par le droit européen de l’intelligence artificielle
Le Règlement européen sur l’intelligence artificielle, dit IA Act, introduit une classification des systèmes d’IA selon leur niveau de risque. Les systèmes à « risque élevé » font l’objet d’obligations renforcées en matière de transparence, de contrôle humain et de documentation technique, tandis que certains usages considérés comme trompeurs ou manipulateurs sont strictement interdits (Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle).
L’IA y est définie comme un système automatisé qui est conçu pour fonctionner à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels (article 3 § 1 de l’IA Act).
Dans le champ électoral, ces dispositions prennent une importance particulière. L’usage d’un système d’IA visant à influencer le comportement politique d’un électeur, à moduler son opinion ou à simuler une interaction humaine peut relever de cette catégorie de risque élevé. De tels outils devront faire preuve de transparence sur leur nature automatisée et sur les données utilisées pour leur fonctionnement. Seront ainsi ouvertement visés par ces dispositions deux catégories d’acteurs définis par le Règlement : les « fournisseurs », qui sont les personnes qui mettent les systèmes d’IA sur le marché et qui doivent se soumettre à certaines contraintes règlementaires inhérentes à ce tels systèmes ; et les « déployeurs », qui utilisent l’IA sous leur propre autorité et sont, ainsi, responsables des effets induits par l’usage de tels systèmes (article 3 § 3 et 4 de l’IA Act).
Cette exigence traduit une idée simple : les campagnes électorales, en tant qu’expression démocratique, doivent reposer sur une information loyale et intelligible. Le recours à des technologies opaques ou trompeuses porterait atteinte à ce principe fondamental. Les candidats et leurs équipes de communication devront donc s’assurer que les solutions employées respectent le cadre européen, au risque sinon, de voir leur usage contesté devant le juge électoral.
3. L’administration de la preuve numérique en cas de litige
L’utilisation de l’intelligence artificielle dans les campagnes électorales fait émerger un nouveau défi : celui de la preuve. Comment démontrer qu’un contenu a été généré ou diffusé par un système d’IA ? Comment garantir l’authenticité d’un message, d’une image ou d’une vidéo ?
Dans un contentieux électoral, la validité de la preuve numérique dépend de sa fiabilité et de la manière dont elle a été collectée. Les constats techniques, la conservation des métadonnées ou l’horodatage des contenus deviennent autant d’éléments essentiels pour en établir la valeur probante.
Le rôle de l’avocat est ici déterminant. Il doit orienter la stratégie de preuve, s’assurer que les éléments techniques sont recueillis conformément aux exigences de recevabilité et anticiper les éventuelles contestations adverses. La maîtrise de ces outils devient une compétence incontournable dans un contentieux où la technologie s’invite désormais au cœur du débat.
Conclusion
L’intelligence artificielle transforme la manière de concevoir, de conduire et de contrôler les campagnes électorales. Elle offre aux candidats des opportunités inédites, mais impose également de nouvelles exigences en matière de transparence, de loyauté et de régulation.
Le droit électoral français, combiné au cadre européen de l’IA, devra progressivement s’adapter à ces usages pour garantir l’équilibre entre innovation technologique et équité démocratique
Les élections municipales de 2026 marqueront peut-être le début d’un tournant : celui des campagnes augmentées par l’intelligence artificielle, mais aussi celui d’un contentieux électoral à l’heure du numérique.