Téléchargez gratuitement notre eBook "Pour une stratégie d'entreprise éco-responsable"
télécharger
French
French
Les opérations de Carve-Out en France
DÉcouvrir
Découvrez le Livre Blanc : "Intelligence artificielle : quels enjeux juridiques"
DÉcouvrir
Intelligence Artificielle : quels enjeux juridiques ?
Actualité
11/9/25

Article 50 de l’AI Act : la consultation européenne sur les exigences de transparence (septembre 2025)

Le 2 septembre 2025, la Commission européenne, par l’intermédiaire de l’Artificial Intelligence Office de la DG CONNECT, a publié une consultation ciblée sur la mise en œuvre des obligations de transparence prévues par l’article 50 du règlement (UE) 2024/1689 dit « AI Act », entré en vigueur le 1er août 2024 et applicable à compter du 2 août 2026. Comme le précise le document, « ce texte est préparé aux fins de consultation et ne préjuge pas de la décision finale », mais il constituera la base de futures lignes directrices et d’un code de pratique destinés à encadrer la détection et le marquage des contenus générés ou manipulés par l’intelligence artificielle.

Le contexte de l’article 50 est fondamental. Le règlement vise à « promouvoir l’innovation et l’adoption de l’IA, tout en garantissant un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux, y compris la démocratie et l’État de droit ». Dans ce cadre, la transparence joue un rôle décisif : elle doit permettre aux personnes physiques de reconnaître qu’elles interagissent avec un système d’IA ou qu’elles sont exposées à un contenu artificiel. La Commission souligne que ces obligations ont pour objectif de « réduire les risques d’imitation, de tromperie ou d’anthropomorphisation et de favoriser la confiance et l’intégrité dans l’écosystème informationnel ».

L’article 50 se décline en plusieurs volets :

  • Paragraphe 1 : les fournisseurs de systèmes d’IA interactifs doivent informer les utilisateurs qu’ils dialoguent avec une machine, sauf lorsque cela est « évident du point de vue d’une personne raisonnablement bien informée, observatrice et avisée, compte tenu des circonstances et du contexte d’utilisation ».
  • Paragraphe 2 : les fournisseurs de systèmes génératifs doivent « marquer le contenu de manière lisible par machine » et mettre en place des mécanismes de détection. Les considérants mentionnent différentes techniques possibles : « filigranes, identification par métadonnées, méthodes cryptographiques de preuve de provenance et d’authenticité, méthodes de journalisation ou empreintes numériques ».
  • Paragraphe 3 : les déployeurs de systèmes de reconnaissance des émotions ou de catégorisation biométrique doivent informer les personnes exposées de leur fonctionnement, sous réserve des exceptions prévues en matière de droit pénal.
  • Paragraphe 4 : les systèmes générant des deep fakes ou des textes artificiels destinés à « informer le public sur des questions d’intérêt général » doivent indiquer clairement leur origine artificielle, sauf exceptions (œuvres artistiques, satiriques ou fictionnelles ; contenus éditorialisés sous responsabilité humaine).
  • Paragraphe 5 : l’information doit être fournie « de manière claire et distincte au plus tard au moment de la première interaction ou exposition », en respectant les règles d’accessibilité.
  • Paragraphe 6 : ces obligations s’ajoutent aux règles relatives aux systèmes à haut risque et s’articulent avec d’autres régimes de transparence prévus par le droit de l’Union ou le droit national.

La consultation interroge les parties prenantes sur des points pratiques et encore incertains : dans quels cas une interaction avec un système peut-elle être considérée comme « évidente » ? Quelles techniques de marquage et de détection sont les plus robustes et accessibles ? Comment informer efficacement les personnes exposées à la reconnaissance des émotions ? Quels critères distinguent un deep fake trompeur d’une œuvre manifestement créative ou satirique ?

La Commission rappelle en outre qu’en vertu de l’article 96, paragraphe 1, point d), elle doit publier des lignes directrices sur la mise en œuvre pratique de ces obligations, et que l’article 50, paragraphe 7 lui confie la mission « d’encourager et de faciliter l’élaboration de codes de pratique » afin d’assurer une application effective des exigences de transparence. L’objectif affiché est clair : transformer une obligation juridique en standards techniques et en pratiques opérationnelles harmonisées.

Pour les opérateurs, l’échéance de l’été 2026 impose une anticipation immédiate. Les entreprises doivent d’ores et déjà prévoir les solutions techniques de marquage, les mécanismes de détection et les modalités d’information des utilisateurs. À défaut, elles s’exposent à un double risque : sanctions administratives prévues par l’AI Act et contentieux parallèles sur le terrain du droit de la consommation, de la protection des données ou du droit des médias.

Le texte intégral de la consultation, publié en septembre 2025 : Stakeholder consultation on transparency requirements (PDF).

Vincent FAUCHOUX
Découvrez l'eBook : Les opérations de Carve-Out en France
Télécharger
Découvrez le Livre Blanc : "Intelligence artificielle : quels enjeux juridiques"
Télécharger
Intelligence Artificielle : quels enjeux juridiques ?

Abonnez vous à notre Newsletter

Recevez chaque mois la lettre du DDG Lab sur l’actualité juridique du moment : retrouvez nos dernières brèves, vidéos, webinars et dossiers spéciaux.
je m'abonne
DDG utilise des cookies dans le but de vous proposer des services fonctionnels, dans le respect de notre politique de confidentialité et notre gestion des cookies (en savoir plus). Si vous acceptez les cookies, cliquer ici.