
Alors que l’intelligence artificielle s’installe de plus en plus dans nos vies et que les problématiques de la protection des données entrant et sortant des systèmes d’intelligence artificielle monopolisent le débat, peu s’interrogent sur la question de la transparence quant à l’utilisation de l’intelligence artificielle.
Si je poste sur les réseaux sociaux une photo générée par intelligence artificielle, faut-il le mentionner ? Si dans le cadre d’une prestation créative j’utilise l’intelligence artificielle, faut-il que j’en informe mon client ?
Bien qu’il n’existe pour l’instant aucune législation générale imposant un devoir de transparence sur l’utilisation de l’intelligence artificielle pour la génération de contenu, certaines dispositions particulières viennent s’appliquer.
L’article 5 II, 2° de la loi n°2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs, modifié par l’Ordonnance n°2024-978 du 6 novembre 2024, dispose que « Les contenus communiqués par les personnes mentionnées à l’article 1er de la présente loi comprenant des images ayant fait l’objet (…) d’une production part tous procédés d’intelligence artificielle visant à représenter un visage ou une silhouette sont accompagnés de la mention : « Images virtuelles ». Cette mention doit être claire, lisible et compréhensible sur tout support utilisé.
L’article 50 de l’IA Act du 13 juin 2024, vient aussi créer de nouvelles obligations de transparence à la charge des fournisseurs et déployeurs (personne physique ou morale, autorité publique, agence ou autre organisme utilisant un système d'IA sous son autorité, sauf si le système d'IA est utilisé dans le cadre d'une activité personnelle non professionnelle) des systèmes d’intelligence artificielle mais qui semblent cependant se limiter à des cas spécifiques.
Ainsi, les fournisseurs doivent procéder au marquage dans un format lisible par machine des différents contenus générés par l’IA afin que ceux-ci soient facilement identifiés comme ayant été générés ou manipulés par intelligence artificielle. Cependant, cette obligation ne s’applique pas lorsque les systèmes d’IA remplissent une fonction d’assistance pour l’édition standard ou ne modifient pas substantiellement les données d’entrée fournies par le déployeur ou leur sémantique.
Les personnes déployant un système d’intelligence artificielle générant ou manipulant du contenu image, audio ou vidéo constituant une contrefaçon profonde ou « deep fake » (c’est-à-dire, un contenu image, audio ou vidéo généré ou manipulé par IA qui ressemble à des personnes, des objets, des lieux, des entités ou des événements existants et qui semblerait faussement authentique ou véridique aux yeux d'une personne) doivent quant à eux indiquer que le contenu a été généré ou manipulé artificiellement. Lorsque le contenu fait partie d’une œuvre ou d’un programme artistique, créatif, satirique, fictif, ou analogues, cette obligation de transparence ne doit néanmoins pas venir entraver la présentation ou la jouissance de l’œuvre.
Ainsi, si un système d’IA crée ou modifie un contenu, l’entreprise doit le signaler (à moins que l’IA soit utilisée à des fins légales ou que le contenu soit artistique ou satirique).
Dans le cas des textes générés par l’intelligence artificielle, ceux-ci doivent aussi être clairement identifiés comme générés ou manipulés par l’IA à la condition que leur publication ait pour but d’informer le public sur des questions d’intérêt public. Cette obligation ne s’applique néanmoins pas lorsque le contenu a fait l’objet d’un processus d’examen humain ou de contrôle éditorial et qu’une personne physique ou morale détient la responsabilité éditoriale de la publication du contenu.
Ainsi, bien que les fournisseurs soient soumis à des obligations de transparence à portée générale, de telles obligations ne pèsent sur les déployeurs que dans des cas spécifiques.
Aucun texte ne vient par conséquent poser une obligation générale de mention de l’utilisation de l’intelligence artificielle dans la production de contenu.
Cette lacune juridique va néanmoins peut-être être comblée par la proposition de loi n°675 déposée le 2 décembre 2024 et qui prévoit de rétablir l’article 6-6 de la loi n°2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique disposant notamment que « Toute personne publiant sur un réseau social une image générée ou modifiée par un système d’intelligence artificielle est tenue d’en mentionner explicitement l’origine. »
De plus, dans le cadre de relations commerciales, une obligation de transparence semble implicite au vu du droit de la consommation.
En effet, l’absence de mention de l’origine artificielle du contenu ne doit pas avoir pour conséquence de tromper le consommateur, au risque de se voir reprocher des faits de publicités et pratiques commerciales trompeuses. En effet, l’article L.121-2 2°) du Code de la Consommation indique qu’une pratique commerciale est trompeuse lorsqu’elle repose sur des allégations, indications ou présentations fausse ou de nature à induire en erreur sur les caractéristiques essentielles du bien ou du service, telles que ses qualités substantielles, son origine, son mode et sa date de fabrication, etc.
Il est ainsi probable que la réalisation de contenu créatif dans le cadre d’une prestation de service, sans divulguer au consommateur le caractère artificiel dudit contenu, puisse tomber sous la coupe de l’article L.121-2 du Code de la Consommation.
En attendant une clarification sur une possible obligation de transparence vis-à-vis de l’utilisation de l’intelligence artificielle, il parait prudent de toujours mentionner clairement un contenu ayant été généré ou manipulé par intelligence artificielle.

