Un cadre de référence pour la gouvernance responsable de l’IA
Le 8 juillet 2025, la Commission européenne, en collaboration avec le Bureau de l’IA institué par le Règlement (UE) 2024/1689 (dit « AI Act »), a publié le Code de Conduite pour les Modèles d’IA à Usage Général (le « Code »). Ce document, fruit d’une co-construction entre les fournisseurs de modèles d’IA, des experts académiques, des régulateurs et la société civile, constitue une étape majeure dans l’opérationnalisation des obligations imposées par les articles 53 et 55 de l’AI Act.
Bien qu’il n’ait pas de caractère contraignant, le Code se présente comme un instrument de soft law destiné à guider les acteurs dans la mise en œuvre des exigences de transparence, de respect du droit d’auteur et de gestion des risques systémiques. Il vise ainsi à concilier sécurité juridique et encouragement à l’innovation dans le marché unique numérique.
Cette analyse propose une lecture approfondie des principales dispositions du Code et de leurs implications dans le contexte du droit de l’Union européenne.
Le premier chapitre du Code transpose en mesures pratiques les obligations de transparence prévues par l’article 53, §1, points a) et b), ainsi que par les annexes XI et XII de l’AI Act. Ces dispositions visent à garantir que les informations essentielles relatives aux modèles d’IA à usage général (GPAI) soient mises à la disposition :
La Mesure 1.1 impose aux signataires de préparer et de maintenir une documentation complète des modèles pendant au moins dix ans après leur mise sur le marché. Cette documentation doit inclure :
Ces obligations permettent de faciliter la conformité des acteurs en aval et de soutenir les activités d’audit des autorités.
L’article 78 de l’AI Act rappelle que les autorités réceptrices doivent respecter les secrets d’affaires et les droits de propriété intellectuelle, tandis que l’article 53, §2 impose un principe de proportionnalité dans les demandes d’information. Cette articulation illustre la volonté de l’Union européenne d’équilibrer les objectifs de transparence et la protection de l’innovation.
Le chapitre consacré au droit d’auteur aborde une question essentielle : l’utilisation d’œuvres protégées dans l’entraînement des modèles d’IA et la prévention des atteintes aux droits d’auteur par les contenus générés. L’article 53, §1, c) AI Act impose aux fournisseurs de GPAI d’« identifier et respecter la protection du droit d’auteur et les réserves de droits » contenues dans les ensembles de données.
Ce dispositif complète le cadre fixé par la directive (UE) 2019/790 sur le droit d’auteur et les droits voisins dans le marché unique numérique (dite « Directive DSM »). L’article 4, §3 de cette directive autorise les titulaires de droits à s’opposer aux opérations de fouille de textes et de données (text and data mining – TDM) en formulant des opt-out lisibles par machine.
Les signataires doivent établir une politique interne relative au respect du droit d’auteur, précisant les responsabilités organisationnelles et les procédures de conformité.
Cette mesure impose de veiller à ce que seuls des jeux de données accessibles légalement soient utilisés pour l’entraînement. Les fournisseurs doivent éviter de recourir à des contenus obtenus en violation de l’article 6, §3 de la directive 2001/29/CE (directive « InfoSoc ») et s’abstenir de collecter des données sur des sites manifestement en infraction de manière systématique.
Les signataires s’engagent à détecter et respecter les réserves de droits exprimées par des moyens techniques (robots.txt, métadonnées). Le Code prévoit le développement futur de standards européens harmonisés pour l’expression des opt-out.
Pour réduire le risque d’outputs contrefaisants, les fournisseurs doivent intégrer des mécanismes techniques de prévention et inclure des clauses d’interdiction d’usage illicite dans leurs politiques d’utilisation.
Un point de contact pour les titulaires de droits est requis, assorti d’un mécanisme de traitement des plaintes.
Ces mesures traduisent une évolution vers une responsabilisation accrue des fournisseurs d’IA face aux risques d’atteinte au droit d’auteur. Elles créent une chaîne de responsabilité qui s’étend de l’entraînement des modèles aux usages en aval, à l’image des obligations proactives prévues à l’article 17 de la Directive DSM pour les plateformes de partage de contenus.
Le chapitre « Sécurité et sûreté » du Code exige l’adoption d’un cadre robuste pour l’identification, l’évaluation et la réduction des risques systémiques. Cela inclut :
Le Code de Conduite pour les Modèles d’IA à Usage Général marque une avancée notable dans la régulation de l’intelligence artificielle au sein de l’Union européenne. Bien qu’il ne soit pas contraignant, il constitue un outil interprétatif majeur et un standard de facto pour l’évaluation de la conformité au titre de l’AI Act.
En incitant les fournisseurs à anticiper les obligations juridiques et éthiques, ce Code illustre le passage d’un paradigme de réaction à celui de la gouvernance proactive, alliant innovation technologique et protection des droits fondamentaux.