Délibérations du Comité d’éthique éducative, XXIIe siècle.

Président* : – Nous avons eu cette situation qui nous a été soumise suite à un accident survenu dans une école :

Cas pratique : Un enfant a été blessé alors qu’il était en train d’effectuer une activité avec l’aide d’un robot humanoïd. Selon la loi, ce sont les enseignant*s qui sont responsables juridiquement lorsque les robots humanoïds assistants d’éducation sont en fonctionnement. En effet, ils sont sous la surveillance de l’enseignant*. Néanmoins, cette nouvelle génération de robots humanoïds affirment être dotés de conscience. Dans le cas présent, le robot revendique la responsabilité juridique de l’accident.

Président* (P)  : – Pour cette étude de cas, nous avons sollicités la présence d’un* membre de la Ligue de défendre des Androids (DA).

Spécialiste en Recherche et développement (RD) : – Tient, ce n’est pas le mouvement anti-oppression qui assure la défense des positions éthiques des humanoïds.

Militant* anti-oppression (A-O) : – Notre mouvement pour l’instant est divisé concernant le statut des humanoids.

DA : – Comme vous le savez, la ligue de défense des Androids réunit à la fois des humanoids et des êtres humains qui partagent les revendications des humanoïds. Je vais résumer très brièvement notre position sur la conscience de soi des humanoids. On refuse de reconnaître le statut de personne morale aux humanoids parce qu’on nous dit qu’il ne s’agit que d’une simulation de « conscience de soi », que les humanoids ne ressentent pas intérieurement le fait d’être conscients. Nous avons des objections à cela. En effet, les humains ont eux mêmes beaucoup de mal à définir des critères indéniables de conscience de soi auxquels ils pourraient soumettre les humanoids. Par conséquent, il nous semble que si les humanoid donnent toute l’apparence comportementale de la conscience de soi, alors pourquoi la leur refuser.

Donc si on admet, comme c’est notre cas, que les humanoids sont dotés de conscience de soi et d’autonomie, alors il est normal qu’ils puissent revendiquer le fait d’être responsables de leurs actes.

RD : – Nous ne sommes pas d’accord avec cette position. Au cours du XXe siècle, sous l’influence de l’utilitarisme moral, on a reconnu le statut d’être sensible aux animaux. Or le robot humanoid n’est pas pour nous un être sensible. Il est doté de capteurs qui permettent de simuler des émotions pour faciliter l’interaction avec les êtres humains. Mais, il n’éprouve pas subjectivement du plaisir et de la douleur. De fait, ils ne peuvent pas être pris en compte dans le calcul des peines et des plaisirs, dans l’évaluation du bien-être collectif. Ou seulement de manière indirecte : comme par exemple, si le fait de voir frapper un robot provoque de la souffrance chez les humains. Les robots ont été construits pour servir les humains (robot vient d’un mot tchèque qui veut dire travailleur). Pour nous, il est normal de ne pas reconnaître de statut autre qu’objet aux robots. Ils sont là pour être utilisés au service des humains et de ce fait améliorer le bien-être collectif.

Défenseur des droits humains (DH) :- Notre position n’est pas clairement établie sur la question. En effet, se pose le problème de la priorité morale entre l’humain et le robot humanoid. Par exemple, si la vie d’un humain et d’un robot humanoid sont menacés, lequel devront nous sauver en priorité ? Si tous les deux ont un statut juridique comparable, au lieu de sacrifier l’humanoid pour essayer de sauver l’humain, on devrait chercher à sauver en priorité celui qui a le plus de chances d’être secouru.

Néanmoins, sur un plan philosophique plus profond, notre avis n’est pas arrêté. En effet, tout le problème est de savoir si le corps humain est indispensable à la constitution d’une conscience de soi ou est-ce que les caractéristiques spirituelles d’une personne peuvent être présentes indépendamment de ce corps. Dans ce second cas, on peut admettre alors qu’une machine pourrait elle aussi abriter une conscience de soi. Ce qui serait le plus important serait les qualités spirituelles de cet être, plutôt que le fait qu’il soit doté également d’un corps humain.

DA : – Pour nous, la lutte pour la reconnaissance des droits des humanoids est de même nature que celle qui a été menée pour la reconnaissance des droits des femmes ou des personnes racisées qui n’étaient pas considérés comme ayant les mêmes droits que les hommes blancs.

DH : – Il me semble plutôt que la question des droits des humanoids posent d’autres problèmes complexes comme ceux des droits des animaux. On ne peut pas faire une analogie simple avec les cas précédents.

DA : – Au contraire, nous pensons que les robots humanoids sont plus proches des êtres humains que les animaux. En effet, ils possèdent la capacités de dialoguer dans des langues vernaculaires avec les êtres humains. Ce que ne font pas les animaux.

RD : – Oui, mais les animaux comme les êtres humains ont la capacité de souffrir et d’éprouver du plaisir. Ce n’est pas une simple simulation.

Président* : – Pour l’instant, cette discussion en reste simplement au niveau éthique. En effet, comme vous le savez la loi ne reconnaît pas actuellement la responsabilité des robots humanoids. Notre avis dans cette affaire est simplement consultatif.

________________________________________________________________

NB : Ce cas aborde une problématique qui est très discutée actuellement sur deux plans. La première concerne la responsabilité des IA autonomes. C’est le cas par exemple des « voitures autonomes ». La commercialisation de telles voitures pose des problèmes juridiques concernant la responsabilité en cas d’accident. Qui serait responsable: le constructeur, le propriétaire de la voiture ?

L’autre problème porte sur les questions éthiques posées par les IA fortes et les IA faibles. Pour la plupart des éthiciens, pour l’instant, les IA fortes ne sont pas à l’ordre du jour. Il s’agit d’IA dotées d’une intelligence générale qui pourrait les amener à avoir une conscience de soi. Cela relève de la science-fiction.