Le 29 avril 2025, une plainte en diffamation a été déposée devant la Superior Court of the State of Delaware par Robert Starbuck, journaliste et réalisateur américain, contre Meta Platforms, Inc., société mère de Facebook, Instagram et WhatsApp. Ce contentieux met en cause les réponses générées par le système Meta AI, l’agent conversationnel basé sur les modèles de langage de type LLaMA, et soulève, pour la première fois devant une juridiction étatique américaine, la question de la responsabilité civile d’un opérateur d’intelligence artificielle générative pour des contenus diffamatoires produits sans intervention humaine directe.
Selon les termes de la plainte, Meta AI aurait diffusé, à compter d’août 2024, des réponses affirmant à tort que M. Starbuck aurait participé à l’assaut du Capitole le 6 janvier 2021, plaidé coupable d’un délit de désordre public, soutenu des thèses négationnistes, ou encore représenté un danger pour ses propres enfants. Ces affirmations, que le demandeur qualifie de « manifestement fausses », auraient été générées à la fois par l’interface textuelle et par la fonctionnalité vocale de Meta AI, provoquant un préjudice moral, professionnel et familial important.
Le demandeur soutient que Meta aurait été alertée à plusieurs reprises de ces contenus erronés, sans toutefois procéder à un retrait immédiat ni publier de rectification publique. Il invoque à ce titre une faute grave, susceptible de caractériser un comportement animé par une « actual malice » au sens de la jurisprudence, qui conditionne la responsabilité des organes de presse et assimilés en cas de diffamation visant une personnalité publique.
La plainte repose sur le fondement de la diffamation per se, une catégorie de la common law dans laquelle l’imputation publique de faits criminels, de comportement déshonorant ou d’incompétence professionnelle est présumée causer un préjudice, sans besoin de démonstration spécifique du dommage. Le demandeur invoque également une demande de dommages-intérêts punitifs (punitive damages) en raison de la persistance alléguée du comportement fautif malgré les mises en garde.
Il convient de rappeler que les faits présentés dans la plainte devront faire l’objet d’un débat contradictoire. En défense, Meta pourrait soulever plusieurs moyens, parmi lesquels :
La question centrale porte donc sur le statut juridique des contenus générés par IA : s’agit-il d’une forme d’expression contrôlée engageant la responsabilité éditoriale de son opérateur, ou d’un flux autonome dont les erreurs ne peuvent être reprochées qu’indirectement ? La jurisprudence américaine n’a, à ce jour, pas encore statué sur cette articulation.
Cette affaire, qui semble être la première au niveau international à articuler une action en diffamation autour de la production autonome d’un modèle d’IA générative, interroge le droit sur plusieurs plans :
Au-delà du cas individuel de M. Starbuck, ce litige pourrait ainsi contribuer à façonner un cadre jurisprudentiel structurant sur la responsabilité algorithmique.
À notre connaissance, les juridictions françaises n'ont pas encore été saisies de cas similaires sur le fondement de notre loi de 1881 sur la liberté de la presse et de la diffamation ou de l'injure à ce jour ; un sujet que tous les avocats et juristes spécialisés en droit de la communication devraient suivre attentivement dans les prochains mois.