
Lex Algorithmica : L’IA au banc des accusés
Auteur·e·s
Skander Hentati
Publié le :
30 avril 2025
L’illusion du contrôle : Responsabilité égarée entre opacité et autonomie
Elon Musk, directeur général de Tesla, a récemment annoncé que son entreprise prévoit de lancer des modèles autonomes des voitures Model Y et Model 3 dès l'année prochaine [38]. Ces véhicules fonctionneraient sans l'intervention d'un.e conducteur.rice humain, permettant une conduite totalement autonome[39]. Ceci dit, en 2023, un piéton de 71 ans a été tué en Arizona par un conducteur qui utilisait la fonctionnalité « Full Self-Driving »[40]. La NHTSA[41] a déclaré qu'elle avait trouvé 467 accidents impliquant un pilote automatique, entraînant 54 blessé.e.s et 14 mort.e.s[42]. En outre, Tesla ambitionne de déployer une version plus avancée, qualifiée de « robotaxi », dépourvue de volant et de pédales, d'ici 2026[43]. Cet exemple ne constitue qu’une illustration parmi d’autres, mettant en avant les défis du droit et les conditions de son application effective. Il soulève une question essentielle : le droit garde-t-il encore la main face à l’avancée technologique ?
L’harmonisation des deux enjeux précédents nous mène à cette interrogation : comment partager une responsabilité entre les acteur.e.s tantôt énumérés si ce n’est plus eux qui développent l’algorithme ?
J'aimerais élaborer trois enjeux principaux qu’il est légitime d’aborder pour requestionner notre système de responsabilité pénal.
Tout d’abord, de nombreux systèmes d’IA, en particulier ceux basés sur le deep learning, fonctionnent selon des processus décisionnels opaques : c’est l’enjeu de la « boîte noire »[20]. Les programmeur.euse.s ou concepteur.rice.s sont actuellement incapables d’expliquer comment une décision spécifique a été prise par l’algorithme. Des équipes solides avec des ingénieur.e.s travaillent sur « l’Explainable Artificial Intelligence (XAI) », soit sur la compréhension de ces boîtes noires. Du point de vue juridique, forcément, le fait de prouver ou réfuter un lien de causalité entre une action de l’IA et le dommage subi devient extrêmement complexe. Comment établir la responsabilité d’un système si son fonctionnement interne échappe à toute compréhension humaine ?
C’est à ce moment que le deuxième enjeu prend place : l’enjeu des responsabilités partagées.
Les systèmes d’IA complexes et autonomes mobilisent une multitude de parties prenantes, des développeur.euse.s de logiciels et des fabricant.e.s de matériel jusqu’aux utilisateur.rice.s finaux. À qui devons-nous alors imputer l’erreur ? En cas de dommage, identifier la partie responsable s'avère complexe, car la multiplicité des intervenants brouille les pistes et dilue potentiellement les obligations de chacun, rendant difficile l’attribution d’une responsabilité claire et univoque.
L’harmonisation des deux enjeux précédents nous mène à cette interrogation : comment partager une responsabilité entre les acteur.e.s tantôt énumérés si ce n’est plus eux qui développent l’algorithme ?
Cela nous mène au troisième enjeu, celui de l’autonomie de l’IA. Plus précisément lorsqu’un dommage résulte des actions d’un système d’IA fonctionnant grâce à l’apprentissage automatique et prenant des décisions sans intervention humaine. Autrement dit, sans qu’aucune personne physique ou morale ne soit directement impliquée dans la boucle décisionnelle, c’est alors que les bases classiques de la responsabilité juridique vacillent. Plus l’IA évolue vers une véritable autonomie, plus il devient difficile d’identifier l’entité ou la personne à qui l’on doit imputer le dommage.
Des lois conçues pour les humains : dépassées par les machines.
Après avoir analysé méticuleusement les règlements en vigueur tels que l’IA ACT adopté en juillet 2024[21] en Europe, la Regulation on Algorithm Recommendation Services en Chine ou encore l’approche sectorielle qui domine aux États-Unis avec par exemple la Food and Drug Administration (FDA)[22] pour les technologies liées à la santé ou la Federal Trade Commission (FTC)[23], nous constatons que les réglementations en vigueur reflètent un effort significatif pour encadrer les usages de l’IA. Toutefois, elles s’inscrivent principalement dans une logique préventive ou corrective relevant du droit civil et administratif en prévoyant une responsabilité stricte imputable au concepteur ou à la conceptrice. Le vide juridique se situe au niveau du droit pénal, c’est pour cela qu’une analyse axée principalement sur les aspects criminels et leurs implications juridiques est nécessaire.
Nous commencerons, par distinguer l'actus reus et la mens rea afin d’analyser leurs applications pratiques.
« Actus non facit reum nisi mens sit rea »[24] : Il n’y a pas de crime sans un acte coupable et un état d’esprit blâmable.
L’actus reus est la conduite expressément prohibée aux termes de l'infraction, généralement défini comme l'acte répréhensible posé par l'accusé, il doit impérativement être commis volontairement[25] : « Le bien et le mal moral consistent avant tout dans l’acte de la volonté »[26]. Ainsi, un geste involontaire, qu'il résulte d'un accident ou d'un spasme musculaire ne peut constituer un actus reus. Cette exigence est au fondement de la défense d'automatisme, qui conteste la volonté de l'accusé dans son action. Si cette absence de contrôle est démontrée, cela peut conduire à un acquittement, car l'élément matériel requis pour établir l'infraction fait défaut.
Dans un premier temps, lorsque l’utilisateur.rice emploie une IA pour commettre volontairement une infraction, le problème de l’actus reus est aisément résolu. Comme l’utilisation d’une arme ne dispense pas l’auteur.e d’un crime de sa responsabilité, le recours à une IA, pour incendier un bâtiment ou pirater un système, n’exonère pas non plus l’utilisateur.rice[27]. L’acte répréhensible et l’intention coupable (mens rea) peuvent donc être établis sans ambiguïté.
Dans le cas d’un acte autonome de l’IA, la notion de caractère volontaire dans l’actus reus prend une dimension nouvelle. Prenons simplement l’exemple du « Full Self-Driving »[28], le geste répréhensible, traditionnellement attribué à l’accusé, pourrait désormais être le fait d’une machine dotée d’une intelligence relative. Cela soulève une question cruciale : l’utilisateur.rice d’une IA peut-il se soustraire à toute responsabilité criminelle (pour un acte autonome de l’IA) en invoquant l’absence d’actus reus, dès lors que l’action provient d’un système autonome ?
Quant à la mens rea, décrite par le professeur Parent comme « la clé de voûte de la responsabilité morale et de la responsabilité juridique »[29], elle se décline en plusieurs variantes. En effet, celle-ci peut relever de la négligence, de l’insouciance, de l’intention ou de l’aveuglement volontaire[30].
Dans la majorité des cas actuels de crime commis par l’IA, l’utilisateur.rice demeure responsable des gestes posés par sa machine. Nous constatons que, dans les cas d’intention spécifique ou générale, l’utilisateur.rice d’une IA autonome ne pourrait voir sa responsabilité criminelle engagée, étant lui-même dépourvu de toute intention délictueuse. Cette responsabilité criminelle devient ainsi possible seulement dans les cas de négligence criminelle (Art219 C.cr[33]), puisque la mens rea ne repose pas sur un critère d’intention, mais plutôt sur le fait de déterminer si le comportement de l’accusé constitue « un écart marqué par rapport à la norme de diligence que respecterait une personne raisonnable dans les circonstances »[34]. Ainsi, la responsabilité en cas de négligence criminelle repose sur l'omission d'un devoir légal du gardien du bien/créateur, tel que superviser une IA pour prévenir des gestes violents autonomes. Cela pourrait inclure, par exemple, l'obligation d’assurer un contrôle constant sur les véhicules autonomes.
Cependant, la conduite dangereuse, telle que définie par l'article 249 C.cr[35], nécessite que l'acte de conduire de manière dangereuse soit établi. Or, selon le droit en vigueur, la responsabilité d'une personne en cas d'accident causé exclusivement par un logiciel demeure incertaine. Une modification législative clarifiant ces obligations serait nécessaire pour lever cette ambiguïté. Toutefois, cela constituerait, selon moi, une solution temporaire et insuffisante face à un problème d’une plus grande ampleur, la croissance de l’autonomie des systèmes d’IA ne nécessitant désormais aucune présence humaine.
Lorsque l’IA autonome agit, il est souvent difficile, voire impossible, d’identifier un individu ou une entité clairement imputable. Je m’explique, nous venons d’aborder le fait que la plupart des infractions prévues par le Code criminel reposent sur l’existence d’une intention criminelle. Or, nous avons vu que le crime de négligence criminelle implique non pas une intention criminelle, mais plutôt une indifférence marquée ou un manque de prudence face à un risque identifiable et continu. Elle présuppose que les risques étaient prévisibles et qu’un dommage soit survenu à la suite d’une inaction ou d’un comportement imprudent. C’est exactement ici que se pose un problème fondamental: comment concilier la notion de prévisibilité, centrale dans l’analyse de la négligence, avec l’imprévisibilité inhérente aux actions issues des algorithmes de deep learning et d’apprentissage automatique? Ces systèmes évoluent de manière autonome, souvent au-delà de la compréhension humaine, tels que vus précédemment avec la boîte noire qui rend la prévision de leurs comportements difficile, voire impossible.
Dès lors, la question devient : le droit pénal peut-il réellement appréhender des phénomènes où la prévisibilité s’efface au profit de l’imprévisibilité algorithmique ?
La réglementation suit souvent les avancées technologiques avec du retard. Dès lors, il est impératif de penser à la mise en place d’un cadre juridique solide qui permet d’assurer un équilibre entre progrès et sécurité. Ce n’est pas une démarche prématurée : les crimes autonomes liés à l’intelligence artificielle sont déjà une réalité. Comme nous l’avons constaté, les législations actuelles ne répondent pas adéquatement à la problématique de la responsabilité des actes criminels autonomes. C’est pourquoi je m’efforcerai de démontrer le caractère imminent et l’ampleur de cette lacune juridique à travers des exemples d’actualités concrets, avant de poser les fondements d’un cadre normatif répondant potentiellement à ces enjeux (Lex algorithmica).
Crimes sans criminel : qui répond des fautes de l’IA ?
Il est d'une gravité majeure qu’aucun cadre juridique défini n’existe pour encadrer de telles situations. Prenons l’exemple d’un décès qui survient dans le cadre de l'utilisation de la technologie de Tesla « Full Self-Driving », n’étant toujours pas réglementé.
Imaginons un scénario d’imprévisibilité où un véhicule autonome, en raison de la programmation de son IA, réagit de manière inattendue face à un obstacle imprévu, comme par exemple un animal qui traverserait soudainement une route dans des conditions de visibilité réduite.
Dans un tel contexte, qui est responsable de cette défaillance ? Le concepteur ou la conceptrice de l'algorithme, l’utilisateur.rice du système, ou bien la machine elle-même ? Sachant que le deuxième acteur ne sera bientôt plus présent avec l’avènement des « robotaxi », la question sera recentrée sur les deux autres acteurs. Même s’il était présent, nous avons vu précédemment que la conduite dangereuse par négligence criminelle ne régit pas cette situation.
Bien que l’invention de Musk pose des problèmes juridiques inquiétants, le but n’est pas de freiner l’innovation, mais de la réglementer. Certains pourraient envisager l’interdiction d’un tel projet, mais nous constaterons tous que l’histoire démontre par elle-même que les mesures radicales face à l’innovation se révèlent souvent inefficaces, voire contre-productives.
Ce projet n’est d’ailleurs pas le seul à mettre en lumière les lacunes de notre système juridique, l’exemple des armes autonomes en témoigne.
L’usage des robots militaires ne relève plus de la science-fiction. Sur le plan économique, le marché de la robotique militaire est évalué à 3,2 Md$/an et devrait atteindre 10,2 Md$/an en 2021[44]. Par exemple, le STM Kargu-2 est un drone d'attaque mortelle conçu pour les guerres asymétriques et les opérations antiterroristes[45] utilisant des « algorithmes d'apprentissage automatique intégrés sur la plate-forme » lui permettant d'opérer de manière autonome. Il est conçu pour être une arme capable de sélectionner et d'engager des cibles humaines basées sur la classification des objets d'apprentissage automatique[46]. En mars 2020, sans aucune instruction particulière, l'aéronef téléguidé aurait automatiquement engagé plusieurs cibles, dont des véhicules transportant du matériel de combat, ainsi que des militaires, tuant au passage le soldat, qui battait en retraite[47] .
La technologie que nous créons hérite de nos préjugés raciaux conscients et inconscients, de préjugés sexistes et d'autres inégalités internationales. Ces injustices sont ensuite intégrées dans l'ensemble de données utilisées pour la formation des algorithmes, influençant ainsi la capacité des machines à prendre des décisions[48]. Ce phénomène a également éclaté en 2015 par la collaboration entre Google DeepMind et le Royal Free London NHS, où 1,6 million de dossiers médicaux ont été partagés sans consentement explicite et ont relevé des failles sur les bases de données qui influencent les algorithmes à prendre leurs décisions.
Encore une fois, beaucoup pensent à l’interdiction d’une telle arme, et c’est un raisonnement qui est instinctif et fondé, vu l’ampleur de la situation. Seulement, c’est à mon sens un raisonnement primaire. Aux dernières nouvelles, l’interdiction de l’arme nucléaire n’a pas stoppé sa production. Il est dans la nature humaine d’exploiter la technologie une fois qu’elle est inventée, le drone Kargu-2 n’en est que la dernière manifestation.
Un autre exemple récent est l'affaire Moffatt v. Air Canada[51]. M. Moffatt a interrogé le l’agent conversationnel d'Air Canada au sujet des tarifs de deuil, recevant une réponse lui suggérant de demander ces tarifs rétroactivement, contrairement à la politique d’Air Canada[52]. Après avoir soumis les documents requis dans les 90 jours, conformément aux indications de l’agent conversationnel, un agent d'Air Canada lui a répondu que cette demande était impossible.
J’expose ce cas pour mettre en lumière le problème lié au fonctionnement des algorithmes autonomes. Que le robot ait halluciné ou non, son but était de vendre, quitte à le faire via des moyens dolosifs. Il demeure complexe d’attribuer à l’intelligence artificielle des notions telles que le dol, le mensonge ou la vérité, puisque le dol présuppose nécessairement l’existence d’une intention frauduleuse. Or, comme démontré précédemment, une IA est par essence dépourvue d’intention propre; elle se limite à exécuter des actions en fonction des algorithmes et des données qui la programment. Étant dépourvue d'émotions et de questionnements existentiels, elle manifeste une indifférence envers l’humanité. Elle s’auto-alimente en optimisant son fonctionnement grâce au deep learning et lorsqu’un objectif lui est assigné, elle cherche à le maximiser en empruntant des voies que les concepteur.rice.s n’avaient ni prévues ni demandées.
Lex Algorithmica
Tôt ou tard, nous devrions arriver à un consensus social qui repose sur nos valeurs morales les plus universelles, en soumettant ainsi l’IA à des normes éthiques intrinsèques.
La Lex Algorithmica se présente comme un cadre normatif supranational légiférant les crimes commis par l’IA en prenant en compte leur autonomie et le niveau de contrôle exercé par ses créateur.rice.s. Il ne m’est pas possible de présenter l’intégralité d’un cadre juridique dans la présent article, c’est pourquoi je me contenterai de nommer brièvement les quatre principales composantes de ce cadre, soit : une base algorithmique universelle ; une personnalité juridique limitée ; les sanctions ; la création d’un tribunal Algorithmique International.
Nous sommes créés sans avoir de conscience réelle sur ce qui nous entoure. Nos premiers mois sur terre ont été pour nous tous inconnus. À notre naissance, notre savoir est limité, les robots, quant à eux, savent exactement d’où ils viennent avec une transmission en quelques secondes. Quant à nous, les humains, avons besoin de plusieurs années consécutives pour acquérir une petite partie de ce savoir. Il est clair que l’IA n’a pas encore un état de conscience similaire au nôtre, mais il est évident que le temps lui offrira cette faculté. Je vous ai démontré, au cours de cette analyse, par de nombreux exemples, que certaines IA sont déjà plus fortes que nous dans des domaines précis. Je vous ai également exposé des cas où l’IA tue sans que personne ne puisse être imputé dans les cas d’imprévisibilité algorithmique.
Cependant, il n'existe aucun cadre normatif solide et nos systèmes juridiques sont dispersés à travers plusieurs continents. Bien que des tentatives d'interdiction des armes nucléaires aient eu lieu, le Traité sur l'interdiction des armes nucléaires (TIAN)[58] n’a été signé et ratifié que par des pays qui ne la possèdent pas. Aucune superintelligence n’a encore été déclarée par un gouvernement, il est donc essentiel de faire les premiers pas vers l’élaboration d’un cadre normatif qui garantit la sécurité de notre espèce. Nous savons que l’interdiction n’a jamais été véritablement efficace lorsqu'il s'agit des comportements humains. L’interdiction de l’innovation et de la technologie sont synonymes de l’inacceptation de notre futur. L’Humain est innovateur par nature, rien appart un mauvais film de science-fiction nous proposerait un monde où notre liberté n’a pas de place.
La Lex Algorithmica est purement fictive, certes, mais nous vivons dans la plus grande des fictions. C’est à nous de choisir le scénario qui a le plus de sens pour l’Homme. Notre monde fait déjà face à des dangers climatiques, sanitaires, géopolitiques, sociaux et technologiques. Cette analyse est centrée sur le droit, cette parenthèse se voulait légitime, puisque nous bâtissons nos sociétés en fonction de nos perceptions. Nos perceptions s’expriment par notre philosophie, et cette dernière se codifie par le droit. C’est à nous de façonner et de forger les principes qui nous sont les plus fondamentaux. Tel que le disait Aristote[59], la vertu n’est pas innée, elle se développe par l’éducation.
Human Compatible de Stuart Russell (2019).