Téléchargez gratuitement notre eBook "Pour une stratégie d'entreprise éco-responsable"
télécharger
French
French
Les opérations de Carve-Out en France
DÉcouvrir
Découvrez le Livre Blanc : "Intelligence artificielle : quels enjeux juridiques"
DÉcouvrir
Intelligence Artificielle : quels enjeux juridiques ?
Actualité
24/2/25

L'abandon de la directive européenne sur la responsabilité en matière d'IA : analyse juridique et implications

La Commission européenne a récemment créé la surprise en retirant de son programme de travail final pour 2025 la proposition de directive du Parlement européen et du Conseil relative à l'adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l'intelligence artificielle, communément appelée "Directive sur la responsabilité en matière d'IA". Cette décision, annoncée le 11 février 2025, s'inscrit dans un contexte où l'Union européenne est de plus en plus critiquée pour sa supposée "surréglementation" des nouvelles technologies. Le présent article analyse les raisons de cet abandon, rappelle le contenu et les objectifs de cette directive, et en examine les implications juridiques.

Le contexte politique du retrait

Le retrait de la proposition de directive intervient dans un climat particulier, au lendemain du Sommet de l'IA tenu à Paris les 10 et 11 février 2025. Lors de cet événement, l'UE a été vivement critiquée pour son approche réglementaire jugée excessive et potentiellement néfaste pour l'innovation. L'un des détracteurs les plus virulents était le vice-président américain JD Vance, qui a appelé à un "démantèlement des réglementations européennes en matière d'IA".

Dans ce contexte, le retrait de la directive peut être interprété comme une manœuvre stratégique des autorités européennes visant à présenter une image d'ouverture au capital et à l'innovation, pour montrer qu'elles donnent désormais la priorité à la compétitivité et pour faire preuve de bonne volonté envers la nouvelle administration américaine.

L'objet et les principales dispositions de la directive abandonnée

Objectif général

La proposition de directive visait principalement à "améliorer le fonctionnement du marché intérieur en établissant des exigences uniformes pour certains aspects de la responsabilité civile extracontractuelle en lien avec des dommages résultant de l'utilisation de systèmes d'IA"1. Elle entendait adapter le droit privé aux défis posés par l'économie numérique. Son but fondamental était double :

  • Garantir que les victimes de dommages causés par des systèmes d'IA bénéficient d'un niveau de protection équivalent à celui accordé aux victimes de dommages causés sans l'intervention d'un système d'IA ; 
  • Réduire l'insécurité juridique et éviter la fragmentation du marché intérieur qui aurait pu résulter d'adaptations nationales divergentes2

Dispositions clés

1. La divulgation d'éléments de preuve (Article 3)

La directive prévoyait qu'une juridiction puisse "ordonner la divulgation des éléments de preuve pertinents concernant des systèmes d'IA à haut risque spécifiques soupçonnés d'avoir causé un dommage"3. Cette mesure visait à surmonter l'un des obstacles majeurs rencontrés par les victimes : l'accès aux informations nécessaires pour étayer leur demande de réparation.

2. La présomption du lien de causalité (Article 4)

La disposition peut-être la plus significative concernait l'établissement d'une présomption réfragable du lien de causalité. L’article 4 paragraphe 1 créait cette « présomption de causalité » si la victime parvient à démontrer que :

1) le défendeur a commis une faute en ne respectant pas une obligation à sa charge et que cette faute a influencé les résultats ou l’absence de résultat du système d’IA ; et 

2) l’existence d’un lien de causalité avec la performance du système d’IA est raisonnablement probable. 

Il ne s’agissait cependant que d’une présomption réfragable permettant au défendeur de l’action en cause d’apporter une preuve contraire quant à ce lien de causalité.

Cette présomption visait à surmonter les difficultés inhérentes aux caractéristiques spécifiques de certains systèmes d'IA (opacité, complexité, autonomie) qui rendent particulièrement difficile l'établissement de la preuve pour les victimes.

3. Une approche différenciée selon le type de système d'IA

La directive distinguait entre systèmes d'IA à haut risque (tels que définis par le Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 mars 2024 établissant des règles harmonisées concernant l'intelligence artificielle, dit "AI Act") et les autres systèmes d'IA, avec des régimes de présomption adaptés. 

Dans le cas d’utilisation de systèmes d'IA à haut risque, la directive donnait aux victimes un plus grand nombre d'outils pour demander réparation en justice, grâce à l'introduction d'un droit d'accès aux éléments de preuve auprès des entreprises et des fournisseurs4.

La directive sur la responsabilité du fait des produits : le pendant complémentaire

Parallèlement à cette proposition abandonnée, l'Union européenne a adopté la Directive (UE) 2024/493 du Parlement européen et du Conseil du 21 février 2024 relative à la responsabilité du fait des produits défectueux, qui abroge et remplace la Directive 85/374/CEE. Cette nouvelle directive constitue une modernisation importante du régime de responsabilité sans faute (ou responsabilité objective) applicable aux produits défectueux.

Contrairement à la directive abandonnée qui se concentrait sur la responsabilité pour faute extracontractuelle, la Directive 2024/493 établit un régime de responsabilité sans faute applicable aux producteurs dont les produits défectueux causent des dommages. Elle inclut les logiciels dans son champ d'application, ce qui recouvre les systèmes d’IA. 

Cette inclusion répond partiellement au besoin de protection des consommateurs face aux dommages causés par des produits intégrant de l'IA. Toutefois, elle ne couvre pas l'ensemble des situations envisagées par la proposition de directive sur la responsabilité en matière d'IA, notamment les services basés sur l'IA et les aspects procéduraux destinés à faciliter l'établissement de la preuve pour les victimes.

 

Les raisons officielles et officieuses de l'abandon

La Commission a justifié le retrait de la directive en écrivant qu'il n'y a "aucun accord prévisible" sur le texte. Elle a également indiqué qu'elle prévoit "d'évaluer si une autre proposition sera présentée ou si un autre type d'approche devrait être choisi." En réalité, plusieurs éléments contextuels expliquent cette décision :

  • L'adoption préalable du Règlement (UE) 2024/1689 du 13 mars 2024 (AI Act), qui réglemente déjà les modèles et systèmes d'IA selon leur niveau de risque
  • L'adoption de la Directive (UE) 2024/493 du 21 février 2024 sur la responsabilité du fait des produits, qui couvre partiellement la problématique
  • Une perte d'attrait de la directive au niveau de l'UE depuis environ un an, compte tenu de l'adoption par un grand nombre d'autres pays d'une approche réglementaire plus souple voire de simples lignes directrices ; 
  • L'opposition de certains États membres, notamment la France qui s'est fortement opposée à la directive depuis sa première proposition en 2022 et qui ne voyait aucune raison d'imposer des exigences de responsabilité supplémentaires aux fournisseurs d'IA.
  • et enfin, le lobbying intense des grandes entreprises technologiques …

Les réactions contrastées à cette décision

L'annonce du retrait a suscité des réactions très diverses parmi les différentes parties prenantes.

Du côté des institutions européennes, le Parlement européen s'est montré globalement déçu. L'eurodéputé Axel Voss (PPE), rapporteur sur la directive, a vivement condamné cette décision, affirmant que la Commission avait activement opté pour "l'insécurité juridique, les déséquilibres de pouvoir des entreprises et une approche digne du Far West qui ne profite qu'aux grandes entreprises technologiques."

À l'inverse, le Conseil s'est montré plutôt favorable au retrait. La présidence polonaise a exprimé "son ferme soutien au programme de travail sur la réduction des charges réglementaires."

Quant aux lobbies des grandes entreprises technologiques, ils ont naturellement salué cette décision. CCIA Europe a notamment "salué le retrait de la directive, qui, selon elle, reflète la reconnaissance croissante par l'UE du fait que le cadre technologique ne doit pas devenir impraticable."

Implications juridiques et perspectives futures

L'abandon de cette proposition de directive laisse un vide juridique partiel dans le cadre réglementaire européen de l'IA. En effet, si le Règlement (UE) 2024/1689 du 13 mars 2024 établit des règles préventives et des exigences pour les systèmes d'IA, et que la Directive (UE) 2024/493 du 21 février 2024 couvre la responsabilité sans faute des produits (y compris ceux intégrant de l'IA), plusieurs aspects spécifiques de la responsabilité pour faute en matière d'IA restent non harmonisés au niveau européen.

Sans harmonisation européenne complète, le risque est de voir se développer 27 régimes nationaux différents de responsabilité civile en matière d'IA, ce qui pourrait :

  • Créer une insécurité juridique pour les entreprises ;
  • Aboutir à des niveaux de protection inégaux pour les citoyens européens ; 
  • Fragmenter le marché intérieur ; 
  • Freiner l'innovation, particulièrement pour les PME qui ne disposent pas des ressources nécessaires pour se conformer à des régimes juridiques multiples.

Toutefois, le commissaire au Commerce et à la Sécurité économique, Maroš Sefčovič, a indiqué que "la Commission pourrait revenir sur la question de la responsabilité en matière d'IA avec une approche différente." Il s'agirait donc moins d'un abandon définitif que d'une pause réglementaire, potentiellement suivie d'une nouvelle proposition plus consensuelle.

Conclusion

Le retrait de la proposition de directive sur la responsabilité en matière d'IA illustre le difficile équilibre que tente de trouver l'Union européenne entre protection des citoyens et promotion de l'innovation. Il témoigne également des pressions exercées tant par les partenaires internationaux que par les acteurs économiques sur la politique réglementaire européenne.

Si le cadre juridique européen en matière d'IA a été considérablement renforcé par l'adoption du Règlement (UE) 2024/1689 du 13 mars 2024 (AI Act) et de la Directive (UE) 2024/493 du 21 février 2024 sur la responsabilité du fait des produits, la question de l'harmonisation des régimes de responsabilité pour faute reste en suspens. L'avenir nous dira si une nouvelle proposition verra le jour, mais cette décision marque indéniablement un tournant dans l'approche européenne de la régulation de l'IA, possiblement vers une démarche plus favorable aux entreprises et à l'innovation, au risque toutefois de créer une fragmentation juridique dommageable au marché unique et aux droits des citoyens.

Vincent FAUCHOUX

1 Mémorandum de la proposition de directive sur la responsabilité en matière d’IA

2 Proposition de directive du Parlement européen et du Conseil relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle (Directive sur la responsabilité en matière d’IA) Exposé des motifs : Contexte de la proposition - Justification et objectifs de la proposition

3 Article 3 de la proposition de directive sur la responsabilité en matière d’IA

4 Article 4.2 et 4.3 de la proposition de directive sur la responsabilité en matière d’IA

Découvrez l'eBook : Les opérations de Carve-Out en France
Télécharger
Découvrez le Livre Blanc : "Intelligence artificielle : quels enjeux juridiques"
Télécharger
Intelligence Artificielle : quels enjeux juridiques ?

Abonnez vous à notre Newsletter

Recevez chaque mois la lettre du DDG Lab sur l’actualité juridique du moment : retrouvez nos dernières brèves, vidéos, webinars et dossiers spéciaux.
je m'abonne
DDG utilise des cookies dans le but de vous proposer des services fonctionnels, dans le respect de notre politique de confidentialité et notre gestion des cookies (en savoir plus). Si vous acceptez les cookies, cliquer ici.