Téléchargez gratuitement notre eBook "Pour une stratégie d'entreprise éco-responsable"
télécharger
French
French
Les opérations de Carve-Out en France
DÉcouvrir
Découvrez le Livre Blanc : "Intelligence artificielle : quels enjeux juridiques"
DÉcouvrir
Intelligence Artificielle : quels enjeux juridiques ?
Actualité
24/7/25

Analyse juridique du rapport “Artificial Intelligence and Civil Liability - An European Perspective”

1. Une inflexion paradigmatique du droit européen de la responsabilité à l’épreuve de l’intelligence artificielle

Le rapport PE 776.426, remis en juillet 2025 au Comité JURI du Parlement européen par le Professeur Andrea Bertolini, acte une rupture majeure dans l’approche du droit européen de la responsabilité civile appliqué aux systèmes d’intelligence artificielle (IA). Initialement pensée autour de la responsabilité postérieure à la survenance d’un dommage – fondée sur une logique de réparation et de dissuasion –, la régulation de l’IA s’oriente désormais vers une gouvernance ex ante, incarnée par le Règlement (UE) 2024/1689 sur l’intelligence artificielle (AI Act), au détriment de l’ambition initiale d’unification des règles de responsabilité.

Cette inversion normative — du post vers l’ex ante, du curatif vers le préventif — se traduit par l’érosion progressive du projet de Directive sur la responsabilité civile en matière d’IA (AILD), dont la Commission a annoncé le retrait envisagé dans son programme de travail 2025. Ce déplacement de centre de gravité réglementaire est dénoncé par l’auteur du rapport comme un abandon prématuré de l’objectif d’harmonisation juridique au profit d’une fragmentation accrue des régimes nationaux.

« Soft-law elements originally conceived as auxiliary have become the core of EU hard-law intervention, while the envisioned liability regime has been indefinitely postponed » (p. 22).

2. L’inadéquation structurelle du droit commun et des régimes existants à l’égard des systèmes d’IA

a) Les limites persistantes du régime de responsabilité du fait des produits (PLD/PLDr)

Le régime issu de la Directive 85/374/CEE sur la responsabilité du fait des produits défectueux (PLD), bien que récemment modernisé par la Directive (UE) 2024/2853 (PLDr), demeure fondamentalement inadapté à la technicité et à l’opacité des systèmes d’IA. S’il intègre désormais les logiciels dans la définition des produits, le PLDr conserve une approche fondée sur la « défectuosité » du produit, inapte à appréhender les effets émergents ou les comportements non anticipés d’un système auto-apprenant.

Le rapport relève notamment :

  • la persistance d’une charge probatoire excessive à l’égard du demandeur (art. 4 PLD), paradoxalement incompatible avec l’idée de responsabilité objective ;
  • le maintien de la défense fondée sur le risque de développement (development risk defence), qui permet au producteur d’échapper à sa responsabilité dès lors que le défaut n’était pas connaissable à la date de la mise en circulation ;
  • l’exclusion des dommages causés au produit lui-même, privant les victimes d’une part substantielle de l’indemnisation en cas de dysfonctionnement autonome.
« The PLDr leaves intact the substantive limitations that rendered the PLD largely ineffective in the first place » (p. 11).

b) La faillite annoncée de la directive AILD

La proposition de directive sur la responsabilité de l’IA (AILD, COM(2022) 496 final) devait pallier ces insuffisances en instaurant des outils procéduraux harmonisés (obligations de divulgation, présomptions de faute et de lien de causalité). Mais elle repose sur une logique hybride et instable : d’une part, elle conserve la primauté des régimes nationaux fondés sur la faute ; d’autre part, elle introduit des éléments d’objectivation sans construire un véritable régime autonome.

Le rapport critique la faiblesse de l’efficacité normative de l’AILD, qui risque d’engendrer davantage d’incertitude que de prévisibilité :

  • absence de hiérarchisation claire entre les normes européennes et les régimes nationaux ;
  • application imprévisible des présomptions procédurales par les juridictions nationales ;
  • incompatibilité avec les logiques de responsabilité propres à certains secteurs (médical, assurance, etc.).

Il anticipe la non-application de fait de la directive et le retour de juridictions nationales vers des régimes plus simples, notamment les rares régimes de responsabilité objective existants.

3. Une nécessité impérieuse : instaurer un régime autonome et strict pour les systèmes d’IA à haut risque

Le cœur de la recommandation du rapport repose sur l’instauration d’un régime de responsabilité strictement objective, ciblé sur les systèmes d’IA à haut risque (high-risk AI systems, h-AIS). Ce régime, inspiré de la proposition parlementaire RLAI (2020/2014(INL)) et du projet de 2020 sur la « responsabilité du fait de l’IA », repose sur les principes suivants :

a) Une logique fonctionnelle d’imputation des risques

L’idée centrale est d’identifier un opérateur unique (single operator) – responsable de l’exploitation économique du système et détenteur du contrôle fonctionnel sur celui-ci – comme débiteur exclusif de la réparation, indépendamment de toute faute. Cette approche se substitue à la recherche causale complexe ou à l’imputation fondée sur la faute.

« Liability should be imposed on the single entity that controls the AI system and economically benefits from its deployment » (p. 12).

b) Une architecture juridique alignée sur l’AI Act

Pour assurer la cohérence du droit européen, le rapport propose de calquer la notion d’“opérateur” sur les définitions du fournisseur et du déployeur issues de l’article 3 du Règlement AI Act, favorisant ainsi une convergence réglementaire interrégime.

c) Un régime à fort pouvoir incitatif

La responsabilité stricte permet :

  • une internalisation ex ante des risques (via assurance, audit, conception responsable) ;
  • une réduction des coûts de contentieux ;
  • une amélioration de l’accès à la réparation pour les victimes ;
  • une prévisibilité normative accrue pour les opérateurs économiques.

4. Évaluation des scénarios politiques : rejet des demi-mesures et valorisation du droit prospectif

Le rapport identifie quatre scénarios réglementaires :

Conclusion

L’absence d’un régime harmonisé, objectif et autonome de responsabilité pour les systèmes d’intelligence artificielle constitue, à l’échelle de l’Union européenne, une lacune stratégique majeure. L’alternative est clairement posée : soit l’Union assume un leadership normatif en matière de responsabilité des IA à haut risque, au service d’un marché unique fonctionnel et compétitif, soit elle s’expose à une fragmentation croissante du droit, préjudiciable à la fois à la protection des citoyens et à l’innovation.

Le rapport PE 776.426 se positionne sans ambiguïté en faveur d’un modèle européen de responsabilité technologique fondé sur la stricte objectivation du risque, la centralisation de la responsabilité et l’efficacité indemnitaire. Il appartient désormais au législateur européen de trancher entre prudence politique et audace juridique.

Vincent FAUCHOUX
Image par Canva
Découvrez l'eBook : Les opérations de Carve-Out en France
Télécharger
Découvrez le Livre Blanc : "Intelligence artificielle : quels enjeux juridiques"
Télécharger
Intelligence Artificielle : quels enjeux juridiques ?

Abonnez vous à notre Newsletter

Recevez chaque mois la lettre du DDG Lab sur l’actualité juridique du moment : retrouvez nos dernières brèves, vidéos, webinars et dossiers spéciaux.
je m'abonne
DDG utilise des cookies dans le but de vous proposer des services fonctionnels, dans le respect de notre politique de confidentialité et notre gestion des cookies (en savoir plus). Si vous acceptez les cookies, cliquer ici.