Robots, cyborgs : qui est responsable en cas de dérapage ? avec Maria Castillo, Maître de conférences en droit public à l’université de Caen Normandie.
00:00On poursuit ce Lexinside, on va s'intéresser à la responsabilité des cyborgs en cas de dommage avec mon invité Maria Castillo,
00:18maître de conférence en droit public à l'université de Caen-Normandie. Maria Castillo, bonjour.
00:24Bonjour Arnaud. On va s'intéresser à un sujet prospectif sur la responsabilité des cyborgs à la lumière d'un colloque, d'un procès fictif que vous avez organisé en mars dernier à l'université de Caen-Normandie.
00:39C'est la clinique juridique de l'université qui avait organisé ce procès fictif. Pour commencer, est-ce qu'un cyborg peut être responsable pénalement ?
00:51Merci Arnaud. Alors en fait nous avons organisé les deux, le procès fictif fin mars et la semaine dernière le colloque qui s'est tenu donc effectivement à l'université de Caen.
01:02Alors est-ce qu'un cyborg pourrait être responsable de ces actes ?
01:06Peut-être qu'on va partir de là où sont partis les étudiants, c'est-à-dire du plus simple, à savoir que pour être responsable, que ce soit pénalement ou que ce soit civilement, il faut d'abord être une personne juridique.
01:17C'est-à-dire qu'il faut être un sujet de droit, avec des droits, avec des obligations, par opposition à la chose juridique qui elle est un objet de droit.
01:28Alors les personnes juridiques, quelles sont-elles ?
01:31Les personnes juridiques, ce sont les personnes morales, les sociétés, les associations et d'autre part les personnes physiques comme vous et moi.
01:38Et ces personnes physiques, elles comprennent tous les êtres humains de la naissance jusqu'à la mort.
01:46Alors quid des robots ? Qu'est-ce qu'on en fait ?
01:48Les robots, à l'heure actuelle, elles n'ont pas de personnalité juridique, même si certains, comme Alain Bensoussan, que nous avons reçu la semaine dernière à Caen,
01:56préconisent la consécration d'une personnalité robotique ou, si vous voulez, d'une personnalité robot, qui serait fondée en fait sur l'autonomie et sur la liberté de décision des robots.
02:07L'idée étant que plus un robot dispose d'autonomie, plus il peut être responsable de la même manière qu'un humain, avec des références éthiques, culturelles,
02:19et moins il a d'autonomie, plus il faut le traiter comme une chose.
02:24Mais ça, ce sont les robots, et pas les cyborgs.
02:27Le robot, c'est une machine, un assemblage, on va dire, de pièces mécaniques, électroniques, quelle que soit son apparence d'ailleurs,
02:36et qui a été conçu pour accomplir une tâche.
02:40Alors, les tâches, elles sont très diverses pour les robots.
02:42On peut penser à un robot qui va effectuer la traite dans une ferme.
02:47Ça peut être un robot qui va faire de la chirurgie fine, et il y en a maintenant.
02:51Ou alors, ça peut être un robot qu'on envoie sur Mars.
02:55Je pense par exemple à l'Astromobile Rover,
02:58qui a été envoyé pour explorer l'espace parce que l'humain ne le peut pas.
03:01Et ça, c'est le robot, ce n'est pas le cyborg.
03:03Le cyborg, qu'est-ce que c'est ?
03:05Et est-ce que le cyborg, il a une personnalité juridique ou non ?
03:08Alors, le cyborg, si on essaye de le définir,
03:10on peut le définir comme un espèce de système homme-machine,
03:14dans lequel on va prendre un humain,
03:16et puis on va lui greffer de la mécanique, de l'électronique.
03:20Alors, si on cherche un petit peu dans notre culture,
03:23on peut penser à Dark Vador,
03:25on peut penser à son fils, Luke Skywalker,
03:27lorsqu'il se retrouve avec sa main artificielle.
03:29Alors, si la référence ne vous plaît pas,
03:31vous n'avez qu'à penser à l'inspecteur Gadget.
03:33Ce sont des sortes de cyborgs.
03:35Dans l'histoire du procès fictif des étudiants de Caen,
03:38notre cyborg, c'est un ancien soldat
03:40qui a été recruté
03:43et auquel on a implanté,
03:49on lui a fait un implant cérébral
03:51pour en faire un super soldat,
03:53pour en faire un soldat particulièrement efficace
03:58pour les forces de l'ordre française.
04:01Et cet ancien soldat s'est prêté à cette transformation
04:05parce que, lorsqu'il était simple soldat pour la France,
04:09il a été envoyé sur un terrain de guerre
04:12qu'on ne citera pas,
04:13qu'on ne connaît pas d'ailleurs,
04:14c'est fictif,
04:15et sur place, il a commis des crimes de guerre.
04:17Donc, pour échapper à la peine,
04:19il accepte de se faire, en quelque sorte, mutiler.
04:22Donc, il a subi volontairement ces modifications.
04:27Est-ce qu'il est encore humain ?
04:29Ou pas ?
04:30Les étudiants vont considérer qu'il reste encore un humain
04:32et, puisqu'il reste encore un humain,
04:35il a la personnalité juridique.
04:37C'est ce qu'ils ont choisi.
04:39Tout simplement parce que la personnalité humaine,
04:44qu'est-ce qui la caractérise vraiment ?
04:46Qu'est-ce qui fait que cette personnalité humaine existe ?
04:49Ce qui va distinguer l'humain de tous les êtres vivants,
04:52c'est le fait, non pas, qu'il est doué d'intelligence,
04:56qu'il a la volonté, qu'il a la sensibilité
04:59qu'on peut retrouver chez certains animaux,
05:01c'est surtout le fait qu'il a une conscience,
05:02c'est-à-dire qu'il a son libre arbitre.
05:04À partir du moment où on accepte que notre cyborg a son libre arbitre,
05:09on peut se poser effectivement la question de sa responsabilité.
05:12Et là, en fait, ça devient assez simple.
05:14Puisqu'il a la personnalité juridique,
05:17pour savoir si sa responsabilité pénale peut être mise en cause,
05:24il suffit de vérifier si,
05:26lorsque un meurtre est commis,
05:28comme c'était le cas en l'espèce,
05:30est-ce qu'il y a eu une intentionnalité ?
05:32Est-ce qu'il a compris qu'il faisait le bien ou le mal ?
05:35D'ailleurs, ici, c'est plutôt le mal que le bien.
05:38Il s'agit de déterminer si l'implant de ce cyborg
05:41a fait obstacle à son libre arbitre ou pas.
05:44Les étudiants ont réfléchi et ils ont dit,
05:47non, l'implant n'a pas fait obstacle, c'est lui.
05:50Alors, est-ce qu'on peut distinguer réellement, dans ce cas,
05:54une erreur de programmation d'un acte délibéré d'un cyborg
05:57tel que vous venez de le décrire ?
05:59Nous nous sommes vraiment, vraiment, comment dirais-je,
06:04penchés sur cette question.
06:06Et je vais vous faire un aveu, nous n'avons pas trouvé la réponse.
06:10Peut-être parce qu'ici, ce n'est peut-être pas une question à poser
06:14de prime abord à un juriste, plutôt peut-être à un ingénieur.
06:17On s'est demandé, avec les étudiants de la clinique juridique,
06:20s'il ne faudrait pas prévoir une sorte de boîte noire
06:22qui nous permettrait de voir si l'implant a été défectueux.
06:25Est-ce qu'il y a eu une erreur de programmation ?
06:29Est-ce que c'est l'algorithme qui n'est pas parfait ?
06:31Je vais vous faire un petit aveu, Arnaud,
06:32c'est qu'au mois d'octobre, va avoir lieu la fête de la science.
06:37Et nous nous sommes, en quelque sorte, alliés aux étudiants en informatique du campus
06:42pour essayer de démêler, en fait, les différentes options.
06:47Là, le juriste ne peut pas répondre seul.
06:49Vous allez répondre à cette question ensemble lors de...
06:51Oui, voilà, dans quelques mois, on espère.
06:54Alors, on va essayer de voir sur la question de la responsabilité,
06:57puisque c'était le cœur de la question.
06:59Qui peut être responsable, du coup, des dommages causés par les actions du cyborg ?
07:03Vous semblez dire qu'il a plutôt des aspects humains, ce cyborg,
07:07donc il serait responsable de ces actes, c'est ça ?
07:09Ça va dépendre.
07:10En fait, cela va dépendre.
07:12Si l'implant cérébral est défectueux,
07:15s'il y a un implant cérébral qui s'avère défectueux,
07:17le responsable, ça va être le producteur de l'implant.
07:20Donc, c'est le producteur de l'implant,
07:22tout simplement sur le fondement de la responsabilité du fait des produits défectueux.
07:26Si l'implant n'est pas défectueux,
07:30c'est-à-dire si nous sommes face à l'acte délibéré d'un cyborg,
07:35qui a la personnalité juridique, on l'a dit tout à l'heure,
07:38qui va donc agir lui-même,
07:40c'est lui le responsable.
07:42Le responsable, c'est lui,
07:43sur le fondement de la responsabilité du fait personnel,
07:45c'est-à-dire la responsabilité fondée sur la faute.
07:47Et puis, dans le cadre de la clinique juridique,
07:49les étudiants se sont également posé une autre question,
07:51c'est-à-dire qu'ils ont envisagé la responsabilité de l'État.
07:54Parce que ce cyborg, il a intégré les forces de l'ordre françaises.
07:58Donc, est-ce que l'État,
08:02en choisissant de développer des forces de l'ordre augmentées,
08:06n'a pas pris le risque de perdre le contrôle,
08:09en tout cas d'une partie de ces forces ?
08:12Et est-ce que là, il n'y a pas moyen à chercher une faute de l'État,
08:17à rechercher la responsabilité de l'État
08:20pour l'utilisation d'une méthode dangereuse ?
08:23C'est une question qui peut être très intéressante.
08:25On va en venir peut-être aux conclusions attirées de ce procès fictif.
08:29C'est un procès fictif, mais finalement,
08:31on pourrait à l'avenir se poser ce type de questions,
08:33je pense avec l'intelligence artificielle,
08:35notamment dans tout ce qui est véhicule autonome,
08:37par exemple, des questions de responsabilité qui pourraient venir.
08:40Oui, oui, oui, c'est ce qui nous attend.
08:44C'est vraiment un très joli,
08:45c'est un très beau thème de recherche pour les juristes,