Téléchargez gratuitement notre eBook "Pour une stratégie d'entreprise éco-responsable"
télécharger
French
French
Les opérations de Carve-Out en France
DÉcouvrir
Découvrez le Livre Blanc : "Intelligence artificielle : quels enjeux juridiques"
DÉcouvrir
Intelligence Artificielle : quels enjeux juridiques ?
Actualité
10/7/25

L’Union européenne et le Code de Conduite pour les Modèles d’IA à Usage Général : Analyse juridique détaillée (juillet 2025)

Un cadre de référence pour la gouvernance responsable de l’IA

Le 8 juillet 2025, la Commission européenne, en collaboration avec le Bureau de l’IA institué par le Règlement (UE) 2024/1689 (dit « AI Act »), a publié le Code de Conduite pour les Modèles d’IA à Usage Général (le « Code »). Ce document, fruit d’une co-construction entre les fournisseurs de modèles d’IA, des experts académiques, des régulateurs et la société civile, constitue une étape majeure dans l’opérationnalisation des obligations imposées par les articles 53 et 55 de l’AI Act.

Bien qu’il n’ait pas de caractère contraignant, le Code se présente comme un instrument de soft law destiné à guider les acteurs dans la mise en œuvre des exigences de transparence, de respect du droit d’auteur et de gestion des risques systémiques. Il vise ainsi à concilier sécurité juridique et encouragement à l’innovation dans le marché unique numérique.

Cette analyse propose une lecture approfondie des principales dispositions du Code et de leurs implications dans le contexte du droit de l’Union européenne.

1. Les obligations de transparence : mise en œuvre de l’article 53 de l’AI Act

1.1 Fondement juridique : article 53, §1, a) et b) AI Act

Le premier chapitre du Code transpose en mesures pratiques les obligations de transparence prévues par l’article 53, §1, points a) et b), ainsi que par les annexes XI et XII de l’AI Act. Ces dispositions visent à garantir que les informations essentielles relatives aux modèles d’IA à usage général (GPAI) soient mises à la disposition :

  • des fournisseurs en aval qui intègrent ces modèles dans leurs systèmes ou composants,
  • du Bureau de l’IA et des autorités nationales compétentes, pour les besoins de la surveillance réglementaire.

1.2 Documentation des modèles : portée et durée

La Mesure 1.1 impose aux signataires de préparer et de maintenir une documentation complète des modèles pendant au moins dix ans après leur mise sur le marché. Cette documentation doit inclure :

  • L’architecture et les spécifications du modèle ;
  • Les méthodes d’entraînement et la provenance des jeux de données ;
  • Les données relatives à la consommation énergétique lors de l’entraînement et de l’inférence.

Ces obligations permettent de faciliter la conformité des acteurs en aval et de soutenir les activités d’audit des autorités.

1.3 Protection des informations confidentielles

L’article 78 de l’AI Act rappelle que les autorités réceptrices doivent respecter les secrets d’affaires et les droits de propriété intellectuelle, tandis que l’article 53, §2 impose un principe de proportionnalité dans les demandes d’information. Cette articulation illustre la volonté de l’Union européenne d’équilibrer les objectifs de transparence et la protection de l’innovation.

2. Respect du droit d’auteur : articulation entre l’AI Act et la législation européenne sur la propriété intellectuelle

2.1 Fondement juridique : article 53, §1, c) AI Act et directive (UE) 2019/790

Le chapitre consacré au droit d’auteur aborde une question essentielle : l’utilisation d’œuvres protégées dans l’entraînement des modèles d’IA et la prévention des atteintes aux droits d’auteur par les contenus générés. L’article 53, §1, c) AI Act impose aux fournisseurs de GPAI d’« identifier et respecter la protection du droit d’auteur et les réserves de droits » contenues dans les ensembles de données.

Ce dispositif complète le cadre fixé par la directive (UE) 2019/790 sur le droit d’auteur et les droits voisins dans le marché unique numérique (dite « Directive DSM »). L’article 4, §3 de cette directive autorise les titulaires de droits à s’opposer aux opérations de fouille de textes et de données (text and data mining – TDM) en formulant des opt-out lisibles par machine.

2.2 Mesures clés et portée juridique

Mesure 1.1 : Politique de droit d’auteur

Les signataires doivent établir une politique interne relative au respect du droit d’auteur, précisant les responsabilités organisationnelles et les procédures de conformité.

Mesure 1.2 : Utilisation licite des données

Cette mesure impose de veiller à ce que seuls des jeux de données accessibles légalement soient utilisés pour l’entraînement. Les fournisseurs doivent éviter de recourir à des contenus obtenus en violation de l’article 6, §3 de la directive 2001/29/CE (directive « InfoSoc ») et s’abstenir de collecter des données sur des sites manifestement en infraction de manière systématique.

Mesure 1.3 : Respect des réserves de droits

Les signataires s’engagent à détecter et respecter les réserves de droits exprimées par des moyens techniques (robots.txt, métadonnées). Le Code prévoit le développement futur de standards européens harmonisés pour l’expression des opt-out.

Mesure 1.4 : Prévention des contenus illicites

Pour réduire le risque d’outputs contrefaisants, les fournisseurs doivent intégrer des mécanismes techniques de prévention et inclure des clauses d’interdiction d’usage illicite dans leurs politiques d’utilisation.

Mesure 1.5 : Point de contact et traitement des plaintes

Un point de contact pour les titulaires de droits est requis, assorti d’un mécanisme de traitement des plaintes.

2.3 Enjeux pratiques pour les fournisseurs de GPAI

Ces mesures traduisent une évolution vers une responsabilisation accrue des fournisseurs d’IA face aux risques d’atteinte au droit d’auteur. Elles créent une chaîne de responsabilité qui s’étend de l’entraînement des modèles aux usages en aval, à l’image des obligations proactives prévues à l’article 17 de la Directive DSM pour les plateformes de partage de contenus.

3. Gestion des risques systémiques : déclinaison des articles 55 et 56 AI Act

3.1 Identification et atténuation des risques

Le chapitre « Sécurité et sûreté » du Code exige l’adoption d’un cadre robuste pour l’identification, l’évaluation et la réduction des risques systémiques. Cela inclut :

  • Une surveillance post-commercialisation continue ;
  • Des tests adversariaux et une journalisation respectueuse de la vie privée ;
  • La notification des incidents graves conformément aux articles 75 et 91 AI Act.

Conclusion : vers une gouvernance proactive de l’IA en Europe

Le Code de Conduite pour les Modèles d’IA à Usage Général marque une avancée notable dans la régulation de l’intelligence artificielle au sein de l’Union européenne. Bien qu’il ne soit pas contraignant, il constitue un outil interprétatif majeur et un standard de facto pour l’évaluation de la conformité au titre de l’AI Act.

En incitant les fournisseurs à anticiper les obligations juridiques et éthiques, ce Code illustre le passage d’un paradigme de réaction à celui de la gouvernance proactive, alliant innovation technologique et protection des droits fondamentaux.

Vincent FAUCHOUX
Image par Canva
Découvrez l'eBook : Les opérations de Carve-Out en France
Télécharger
Découvrez le Livre Blanc : "Intelligence artificielle : quels enjeux juridiques"
Télécharger
Intelligence Artificielle : quels enjeux juridiques ?

Abonnez vous à notre Newsletter

Recevez chaque mois la lettre du DDG Lab sur l’actualité juridique du moment : retrouvez nos dernières brèves, vidéos, webinars et dossiers spéciaux.
je m'abonne
DDG utilise des cookies dans le but de vous proposer des services fonctionnels, dans le respect de notre politique de confidentialité et notre gestion des cookies (en savoir plus). Si vous acceptez les cookies, cliquer ici.