Intelligence artificielle et responsabilité juridique : que peut la loi et quels sont les blocages actuels ?
- Stéphane Guy

- il y a 5 jours
- 11 min de lecture
Une voiture autonome freine sans raison sur l'autoroute. Un algorithme de recrutement écarte systématiquement les femmes. Un diagnostic médical assisté par IA oriente un patient vers le mauvais traitement. Dans chacun de ces cas, la question surgit avec une clarté désarmante : qui est responsable ?
La réponse courte : pas l'IA. Elle n'a pas de personnalité juridique, ne peut être ni poursuivie ni condamnée. C'est un outil, sophistiqué, parfois opaque, mais un outil. Reste donc à identifier, dans la chaîne humaine qui l'a conçue, déployée ou utilisée, qui porte le préjudice. Et c'est là que les choses se compliquent sérieusement.
Le droit européen et français est en pleine mutation sur ce sujet. L'AI Act, entré en vigueur en août 2024, pose des obligations nouvelles. Mais une directive spécifiquement dédiée à la responsabilité civile en matière d'IA vient d'être abandonnée par la Commission européenne en février 2025. Le vide persiste. Et pendant ce temps, les systèmes d'IA prennent des décisions qui engagent des vies.

En bref
Une IA n'est pas une personne juridique : elle ne peut pas être tenue responsable. En cas de dommage, c'est vers ses concepteurs, ses déployeurs ou ses utilisateurs que la justice se tourne.
Le droit français mobilise principalement les articles 1240 et 1242 du Code civil, mais ces textes, pensés pour des dommages classiques, s'adaptent mal à l'opacité des systèmes d'IA.
L'AI Act européen (2024) classe les IA par niveau de risque et impose des obligations aux fournisseurs et déployeurs, avec des amendes pouvant atteindre 35 millions d'euros ou 7 % du chiffre d'affaires mondial.
La directive européenne spécifique à la responsabilité en matière d'IA a été abandonnée en février 2025, laissant un vide réglementaire que les États membres devront combler chacun à leur manière.
Le principal obstacle reste la "boîte noire" : prouver qu'un système d'IA est à l'origine d'un dommage est techniquement et juridiquement ardu, surtout lorsque l'IA apprend et évolue de façon autonome.
L’intelligence artificielle : une machine qui décide, mais qui ne répond de rien
Posons d'abord le problème dans ses termes les plus simples. En droit, pour engager une responsabilité, il faut une faute, un dommage, et un lien de causalité entre les deux. Ce triptyque, prévu à l'article 1240 du Code civil, constitue le socle du droit de la responsabilité délictuelle en France. Il suppose qu'il y ait, au bout de la chaîne, quelqu'un capable de répondre de ses actes. En effet, l’article dit entre autre, ceci : “Tout fait quelconque de l'homme, qui cause à autrui un dommage, oblige celui par la faute duquel il est arrivé à le réparer.”*
Une IA n’est pas concernée par cela. Elle n'a pas d'intention. Elle n'a pas de volonté. Elle n'a pas non plus la personnalité juridique que possèdent les êtres humains, et, sous certaines conditions, les entreprises ou associations.
Cela peut sembler évident. Cependant, ça ne l'est pas tant que ça, quand on réalise le nombre de décisions quotidiennes que des systèmes d'IA prennent sans supervision humaine réelle : tri de CV, scoring de crédit, triage de symptômes, modération de contenus... Autant de situations où, en cas de dommage, la question du responsable reste ouverte.
La chaîne humaine derrière chaque algorithme IA
Si l'IA ne répond de rien, les humains qui l'ont conçue, mise sur le marché et utilisée, eux, le peuvent. Mais encore faut-il les identifier, et déterminer la part de chacun dans le dommage causé.
Dans la chaîne de valeur d'un système d'IA, on distingue généralement trois profils :
Le développeur (ou fournisseur) est celui qui conçoit le modèle. C'est lui qui choisit les données d'entraînement, les architectures techniques, les objectifs d'optimisation. Si un biais est introduit dès cette phase, résultant d’hallucinations et biais algorithmiques, la responsabilité pourrait remonter jusqu'à lui.
Le déployeur est l'entreprise ou l'institution qui intègre le système dans un produit ou service concret. Un hôpital qui utilise un logiciel de diagnostic, un cabinet de recrutement qui automatise le tri des candidatures, une compagnie d'assurance qui automatise ses décisions d'indemnisation : tous sont déployeurs. Et tous, à ce titre, ont une obligation de vigilance sur les résultats que l'IA produit.
L'utilisateur final, enfin, est celui qui manipule l'outil au quotidien. Un avocat qui publie sans relire une synthèse juridique générée par une IA, un médecin qui valide sans recoupement un diagnostic algorithmique… ils restent, eux aussi, responsables de leur supervision.
Dans le cas d'un cabinet utilisant une IA pour rédiger des contrats, si un défaut de paramétrage conduit à des clauses inapplicables et qu'un client en subit un préjudice, la responsabilité du cabinet pourrait être engagée pour manque de diligence. L'utilisateur humain est souvent en première ligne, précisément parce qu'il reste celui qui a la garde effective de l'outil.

Ce que dit le Code civil, et ses limites actuelles pour le cas de l’utilisation de l’IA
En France, deux textes sont principalement mobilisés lorsqu'un dommage causé par une IA arrive devant un tribunal.
L'article 1240 du Code civil, d'abord, qui prévoit la responsabilité pour faute : la victime doit prouver qu'une faute a été commise, que cette faute lui a causé un préjudice, et qu'il existe bien un lien entre les deux. Dans le contexte de l'IA, c'est souvent un parcours du combattant. Les systèmes d'IA sont complexes en raison des grandes quantités de données concernées, de la dépendance aux algorithmes et de l'opacité du processus décisionnel, ce qui rend difficile la prédiction du comportement d'un produit assisté par l'IA et la compréhension des causes possibles d'un préjudice.
L'article 1242, ensuite, ouvre une voie alternative : la responsabilité du fait des choses. Cette disposition prévoit qu'une personne peut être tenue responsable des dommages causés par une chose qu'elle a sous sa garde : “On est responsable non seulement du dommage que l'on cause par son propre fait, mais encore de celui qui est causé par le fait des personnes dont on doit répondre, ou des choses que l'on a sous sa garde.”*
Cette notion pourrait également s’appliquer aux systèmes d'IA. Concrètement : si un robot doté d'une IA blesse quelqu'un dans un espace public, l'entité qui détient ce robot, et en a donc la garde, peut voir sa responsabilité engagée, sans même que la victime ait à prouver une faute.
Ce régime est plus protecteur pour les victimes. Mais il soulève une question que les juristes débattent activement : qui est le "gardien" d'un système d'IA quand celui-ci évolue de façon autonome, se met à jour tout seul, et que ses décisions ne sont plus vraiment prévisibles par personne ? L'AI Act ne précise pas comment appliquer le principe de responsabilité du fait des choses à l'IA. Si un système cause un dommage, les victimes pourront engager la responsabilité du concepteur ou de l'utilisateur selon les circonstances, mais comment déterminer qui est le gardien dans un cas concret reste une question ouverte.
L'AI Act : des règles pour les risques, pas pour les victimes
Entré en vigueur le 1er août 2024 et progressivement applicable depuis, le règlement (UE) 2024/1689 est le tout premier cadre juridique complet en matière d'IA au monde. Il établit des règles fondées sur les risques pour les développeurs et les déployeurs d'IA en ce qui concerne les utilisations spécifiques de l'IA.
Son principe directeur : classer les systèmes d'IA par niveau de risque. Le règlement propose une approche en quatre niveaux : risque inacceptable (pratiques interdites), risque élevé, risque spécifique en matière de transparence, et risque minimal. Les systèmes à haut risque, dans les domaines médical, judiciaire, de l'emploi, des infrastructures critiques, sont soumis à des exigences strictes de traçabilité, de documentation et d'évaluation d'impact. Les sanctions prévues sont lourdes : jusqu'à 35 millions d'euros d'amende ou 7 % du chiffre d'affaires annuel mondial pour les infractions les plus graves.*
Mais l'AI Act est un texte de prévention et de conformité, pas de réparation. Il dit aux acteurs comment concevoir et déployer leurs systèmes. Il ne dit pas qui indemnise la victime quand quelque chose tourne mal. C'est précisément ce vide qu'une directive spécifique était censée combler, et qu'elle n'a finalement pas comblé.
La directive abandonnée : un recul qui inquiète pour encadrer l’intelligence artificielle
C'est le coup de théâtre juridique de 2025. La Commission européenne a retiré de son programme la proposition de directive qui devait adapter les règles en matière de responsabilité civile extracontractuelle au domaine de l'intelligence artificielle. Cette décision a été annoncée le 11 février 2025, dans un contexte où l'Union européenne est de plus en plus pointée du doigt pour une réglementation jugée de plus en plus excessive et qui pourrait, à terme, être néfaste pour l’inovation et la compétitivité du secteur.*
Ce retrait, motivé selon la Commission, par l'absence d'accord prévisible", n'est pas anodin. Ce projet de directive prévoyait des outils concrets pour les victimes : un droit d'accès aux éléments de preuve détenus par les entreprises, des présomptions de causalité facilitant la charge probatoire, des régimes différenciés selon le niveau de risque des systèmes. Autant de mécanismes qui font aujourd'hui défaut.
Le retrait de la proposition de directive sans alternative annoncée laisse un vide réglementaire dans un domaine où la sécurité juridique est essentielle. Les experts préconisent l'adoption d'un régime autonome de responsabilité stricte pour les systèmes d'IA à haut risque, susceptible de fournir un cadre juridique cohérent, harmonisé, propice à l'innovation et conforme aux principes de responsabilité technologique.
Ce qui subsiste, c'est la directive révisée sur la responsabilité du fait des produits défectueux (UE) 2024/2853, qui, adoptée en octobre 2024, renforce un cadre législatif vieux de 40 ans. Elle confirme la responsabilité sans faute des fabricants et étend la réparation aux dommages corporels (incluant la santé psychique), aux dommages aux biens et à la perte ou corruption de données. Elle intègre explicitement les logiciels dans son champ d'application, ce qui englobe les systèmes d'IA.*
Cependant, si la directive exclut les services autonomes, elle couvre les services connexes essentiels au fonctionnement du produit. Elle maintient l'exonération pour « risque de développement », mais celle-ci est strictement encadrée : elle ne peut être invoquée si le défaut résulte de l'apprentissage continu de l'IA ou d'une mise à jour logicielle restée sous le contrôle du fabricant. Cette limite vise à responsabiliser les entreprises face au caractère évolutif des systèmes d'IA.

Des affaires concrètes, des décisions qui font jurisprudence
La théorie juridique rencontre désormais la réalité des tribunaux. Quelques affaires récentes illustrent comment les juges commencent à trancher, et avec quelle prudence.
D’abord le 31 décembre 2021 : en Italie, le tribunal de Bologne “a défini le “classement de réputation” de Deliveroo, ordonné par un algorithme, comme étant “discriminatoire”.” Cet algorithme, appelé “Frank” est accusé de ne faire aucune distinction entre un livreur malade et un livreur jugé peu efficace. En d’autres termes, l’algorithme ne prend pas en compte les circonstances personnelles et aléas des livreurs de l’application et note ces derniers en conséquence.*
Autre verdict plus récent : “vendredi 1er août. Un tribunal américain a jugé le constructeur Tesla partiellement responsable d’un accident mortel, survenu en avril 2019, ayant impliqué l’un de ses véhicules disposant de l’option Autopilot, sa technologie d’assistance à la conduite.”*
George McGee, le conducteur du véhicule électrique, a conduit de manière négligeante en grillant des feux et panneaux d’arrêt, ainsi qu’en conduisant en excès de vitesse. Si la responsabilité du conducteur est établie, celle de Tesla également, car le système de la voiture n’a pas empêché George McGee de conduire de manière aussi imprudente, et ne l’a pas empêché d’emprunter des routes inadaptées pour ce type de véhicule.
Cette décision vient avec une amende de 250 millions de dollars que l’entreprise devra payer auprès des victimes et leurs ayants droits : Naibel Benavides Leon, la jeune femme décédée dans cet accident ainsi que son compagnon, Dillon Angulo, situé côté passager du véhicule et qui a été blessé lors de l’accident.
Ces deux décisions dessinent, en creux, une doctrine qui se stabilise : la responsabilité suit la supervision. Celui qui a délégué à l'IA sans en contrôler les sorties, celui qui a mis sur le marché sans tester suffisamment, c'est lui qui répond. Ce n'est pas encore un régime cohérent. Mais c'est un début de jurisprudence.
La boîte noire : le vrai obstacle judiciaire
Le problème que tous les juristes soulèvent, c'est la preuve. Pour que la victime obtienne réparation, elle doit démontrer que c'est bien le système d'IA qui est à l'origine de son préjudice, et non une autre cause comme une erreur humaine concomitante, ou simplement la malchance.
Or, les systèmes d'IA modernes (réseaux de neurones profonds, modèles de langage, algorithmes d'apprentissage par renforcement) sont des architectures dont le processus de décision est difficilement traçable, même pour leurs concepteurs. C'est ce qu'on appelle communément la "boîte noire", et c'est un obstacle judiciaire réel.
La directive européenne 2024/2853 sur les produits défectueux propose des outils pour y remédier. Des présomptions de défectuosité permettent au fabricant de devoir prouver que son IA n'est pas défectueuse dès lors qu'un dommage résulte clairement d'un produit. Une obligation de divulgation d'éléments techniques est également prévue, utile dans des affaires complexes comme la médecine.
C'est une avancée. Mais elle reste incomplète. Les IA qui évoluent avec des mises à jour ou des processus d'apprentissage autonomes posent des défis uniques. La directive 2024/2853 élargit certes la responsabilité du fabricant pour inclure les défauts causés par des mises à jour défectueuses ou des modifications non prévues dans l'apprentissage d'une IA. Il n'en reste pas moins que, dans les faits, prouver qu'une mise à jour est à l'origine d'un préjudice spécifique reste un exercice extrêmement complexe.
Ce que tout ça change concrètement pour l’IA et le droit
Les dangers invisibles de l'IA générative ne se limitent pas à la désinformation ou à la manipulation : ils se prolongent dans une zone grise juridique où les victimes peinent à être indemnisées. Et au-delà de l’indemnisation, il y a la reconnaissance d’un tel phénomène, qui est essentielle pour ouvrir des précédents judiciaires et permettre une meilleure sensibilisation à ce type de cas, qui sont sans doute amenés à se multiplier à mesure que l’IA s’intègre partout dans notre société et dans des usages de plus en plus sensibles.
Pour les entreprises, la leçon est claire : intégrer une IA dans un processus de décision, embauche, crédit, diagnostic, contrat… ne décharge pas de la responsabilité. Elle la déplace, mais ne l'efface pas. Des difficultés émergent sur le plan probatoire du fait de la pluralité des acteurs et du caractère souvent opaque des systèmes d'IA, complexes technologiquement et entraînés parfois à partir de millions de données.
Pour les individus victimes d'une décision algorithmique, les voies de recours existent, mais elles sont encore semées d'embûches. Le droit commun de la responsabilité civile s'applique. Des recours spécifiques commencent à émerger avec l'AI Act. Et une jurisprudence, encore fragile mais réelle, se constitue devant les tribunaux français et européens.
La vraie question qui s'annonce, et que le droit n'a pas encore tranchée, concerne les agents IA autonomes : ces systèmes capables de prendre des décisions en chaîne, de signer des contrats, d'agir sur des marchés financiers. Quand une telle entité cause un préjudice, qui répond ? Le débat sur une éventuelle personnalité juridique des IA n'est plus seulement philosophique. Il est en train de devenir urgent.

FAQ
Une IA peut-elle être tenue responsable juridiquement ?
Non. En droit français et européen, une IA n'a pas de personnalité juridique. Elle ne peut ni être poursuivie, ni être condamnée. En cas de dommage, la responsabilité est recherchée auprès des humains ou des entreprises qui l'ont conçue, déployée ou utilisée.
Qui est responsable si une IA prend une mauvaise décision dans mon entreprise ?
Généralement, c'est le déployeur, c'est-à-dire l'entreprise qui a intégré le système d'IA dans son processus de décision, qui engage sa responsabilité en cas de dommage causé à un tiers. Les tribunaux peuvent considérer que la délégation à un algorithme ne supprime pas l'obligation de vigilance. Cependant, chaque cas est différent.
Qu'est-ce que l'AI Act change en matière de responsabilité ?
L'AI Act impose des obligations de transparence, de traçabilité et d'évaluation des risques aux fournisseurs et déployeurs de systèmes d'IA. Il prévoit des sanctions financières importantes. Mais il ne crée pas directement un droit à indemnisation pour les victimes, c'est son principal manque aujourd'hui. Cependant, des progrès sont faits continuellement pour améliorer la législation²
Pourquoi la directive européenne sur la responsabilité de l'IA a-t-elle été abandonnée ?
La Commission européenne a retiré ce projet de son programme de travail en février 2025, invoquant l'absence d'accord politique. Ce retrait s'inscrit dans une tendance à alléger la régulation pour favoriser l'innovation, mais laisse un vide juridique préoccupant pour la protection des victimes.
Que faire si vous êtes victime d'une décision algorithmique erronée ?
Vous pouvez engager une action sur le fondement du Code civil (article 1240 pour la faute, 1242 pour le fait des choses). Pour les systèmes à haut risque soumis à l'AI Act, vous pouvez également solliciter l'accès à la documentation technique du système. Il est fortement conseillé de consulter un avocat spécialisé en droit du numérique pour plus de détails et avoir des actions concrètes à mettre en place pour votre cas spécifique..
Un médecin est-il responsable si une IA médicale se trompe ?
Oui, potentiellement. Le médecin reste responsable de sa décision finale, même s'il s'est appuyé sur une IA. La validation humaine du diagnostic ou du traitement reste une obligation professionnelle. En parallèle, le fabricant du logiciel médical peut aussi voir sa responsabilité engagée si le système présente un défaut.




Commentaires