Téléchargez gratuitement notre eBook "Pour une stratégie d'entreprise éco-responsable"
télécharger
French
French
Formation juridique
Propriété intellectuelle : formez vos équipes au-delà de la conformité
Stratégie PI, preuve d’antériorité, secrets d’affaires, outils de valorisation : une formation sur-mesure animée par nos avocats.
En savoir plus
Formation juridique
Intelligence Artificielle : maîtriser vos risques juridiques & anticiper l’IA Act
Découvrez notre formation sur les risques et obligations liés à l’intelligence artificielle
En savoir plus
Actualité
2/12/25

Sécurité des robots humanoïdes et protection des lanceurs d’alerte : éclairage sur l’affaire Grendel v. Figure AI

1. Figure AI : un acteur émergent de la robotique humanoïde

Figure AI développe des robots humanoïdes destinés à exécuter des tâches physiques dans des environnements variés, qu’il s’agisse d’entrepôts, de sites de production ou, à terme, de foyers.

La société mise sur un design humanoïde agile et sur une intelligence artificielle propriétaire (Helix AI) permettant au robot d’apprendre par démonstration et de s’adapter à des situations non programmées.

Ce positionnement, fondé sur une proximité physique très forte entre l’homme et la machine, impose des exigences de sécurité particulièrement élevées.

2. Des incidents techniques révélateurs de risques substantiels

Selon la plainte, le responsable sécurité recruté par la société avait alerté la direction sur plusieurs incidents préoccupants :

  • un test d’impact montrant qu’un modèle F.02 pouvait exercer une force largement supérieure au seuil nécessaire pour fracturer un crâne humain ;
  • un quasi-accident au cours duquel un robot a violemment heurté un réfrigérateur à quelques centimètres d’un salarié ;
  • l’absence de système formel de remontée des incidents et de suivi des quasi-accidents ;
  • la suppression unilatérale d’un dispositif de sécurité pour des raisons de présentation visuelle.

Ces observations ont été transmises par écrit à la direction, accompagnées de recommandations visant à renforcer la sécurité, notamment via un dispositif d’arrêt d’urgence certifié (E-Stop) et une révision de la feuille de route sécurité.

3. Un licenciement intervenu peu après les alertes formelles

L’ingénieur affirme que sa relation avec les dirigeants s’est tendue à mesure qu’il insistait sur la nécessité d’investir dans la sécurité.

Quelques jours après ses messages les plus précis, notamment à propos de la force exercée par le robot et de la suppression d’un processus de certification, il est convoqué puis licencié, le 2 septembre 2025, pour un « changement de direction ».

Cette proximité temporelle constitue l’un des éléments centraux de l’action engagée.

4. Les fondements juridiques présentés dans une logique cohérente

L’action repose sur trois mécanismes du droit californien qui, ensemble, protègent les salariés ayant formulé des signalements liés à la sécurité :

D’abord, le California Labor Code § 1102.5 interdit à un employeur de sanctionner un salarié qui révèle ou signale des faits qu’il estime contraires aux obligations légales, notamment en matière de santé et de sécurité au travail.

Le demandeur soutient que ses alertes, portant sur des risques d’atteinte à l’intégrité physique des salariés et sur la suppression de mesures essentielles, relevaient précisément de ce cadre.

Ensuite, le California Labor Code § 98.6 prohibe toute mesure de représailles à l’encontre d’un salarié ayant formulé une réclamation interne relative à ses conditions de travail. La loi prévoit même une présomption de représailles lorsque, comme ici, la rupture intervient dans les 90 jours suivant le signalement.

Enfin, l’action invoque le fondement jurisprudentiel du wrongful termination in violation of public policy, qui sanctionne les licenciements motivés par la volonté de punir un salarié ayant tenté de faire respecter des règles essentielles d’ordre public, parmi lesquelles figure la prévention des risques graves pour les personnes.

Ces trois fondements, complémentaires, visent à démontrer que le licenciement serait intervenu en réaction directe aux alertes formulées par l’ingénieur.

5. Les demandes formulées

Le demandeur sollicite une réparation intégrale comprenant l’indemnisation des pertes financières, la compensation du préjudice professionnel et moral, l’application des pénalités prévues par les textes protecteurs des lanceurs d’alerte, ainsi que l’octroi de dommages punitifs et la prise en charge des frais d’avocat.

Conclusion et mise en garde

Cette affaire illustre les tensions croissantes auxquelles sont confrontées les entreprises de robotique humanoïde, partagées entre impératifs d’innovation et exigences de sécurité.

Elle rappelle qu’à mesure que les robots se rapprochent physiquement des utilisateurs, la documentation, la gouvernance et la transparence en matière de sécurité deviennent des enjeux centraux.

Vincent FAUCHOUX
Image par Canva
Formation juridique
Propriété intellectuelle : formez vos équipes au-delà de la conformité
Stratégie PI, preuve d’antériorité, secrets d’affaires, outils de valorisation : une formation sur-mesure animée par nos avocats.
En savoir plus
Formation juridique
Intelligence Artificielle : maîtriser vos risques juridiques & anticiper l’IA Act
Découvrez notre formation sur les risques et obligations liés à l’intelligence artificielle
En savoir plus

Abonnez vous à notre Newsletter

Recevez chaque mois la lettre du DDG Lab sur l’actualité juridique du moment : retrouvez nos dernières brèves, vidéos, webinars et dossiers spéciaux.
je m'abonne
DDG utilise des cookies dans le but de vous proposer des services fonctionnels, dans le respect de notre politique de confidentialité et notre gestion des cookies (en savoir plus). Si vous acceptez les cookies, cliquer ici.