La technologie est-elle suffisamment mature pour que l'on puisse proposer aux patients atteints de maladie chronique une assistance robotique dotée d'une intelligence artificielle ?
Pas totalement, mais des applications utiles sont déjà envisageables. Les études montrent que l'on apprend mieux, et qu'on est plus attentifs quand nous avons l'impression d'être confrontés à une attention empathique. Même si un robot n'aura jamais une empathie telle que celle que l'on peut attendre d'un humain, on peut déjà simuler une attitude empathique qui peut aider des patients souffrants, par exemple, de maladies neurodégénératives à être moins anxieux.
Comment s'y prend-on pour donner l’illusion de l’empathie chez une intelligence artificielle ou un robot ?
Les machines peuvent détecter, dans la voix et le comportement, l'état émotionnel des patients, et adopter en réponse une stratégie de conversation adéquate. Elles vont rechercher des signes, très simples mais très expressifs, représentatifs de nos émotions. Quand on est en colère, le rythme de la communication est plus élevé et on parle de façon plus énergique. En état dépressif, au contraire, on a tendance à ralentir notre élocution, à produire des silences, à avoir peu d'énergie dans la voix.
Il existe des milliers de marqueurs acoustiques très fins pour décrire la voix et beaucoup d'autres pour décrire les gestes, les expressions du visage, etc. Il existe cependant des différences culturelles très marquées dans les habitudes, toucher quelqu'un par exemple n'est pas perçu de la même manière d'un pays à l'autre. Nous avons aussi des progrès à faire dans la reconnaissance robuste de ces différents signaux : par exemple pour la reconnaissance du sourire sur le visage : quand j'essaye d'apprendre à une intelligence artificielle à repérer un sourire chez des personnes âgées, je me heurte au fait qu'avec les rides, il existe une grande variété d'expressions d'une personne à l'autre.
Quelles sont les questions éthiques posées par l'irruption des robots dans le soin ?
Certains scientifiques japonais insistent pour faire passer le test de Turing (« confondre la machine avec un humain ») à leurs robots d'accompagnement. Je pense personnellement qu'il faut tracer une frontière claire entre humains et robots. Il ne faut pas que l'intelligence artificielle soit une sorte de boîte noire dans laquelle des décisions sont prises sans que l'on comprenne comment.
Dans un rapport remis par la commission de réflexion sur l'éthique de la recherche en sciences et technologies du numérique d'Allistene, à laquelle je participe, nous avons listé des recommandations. Lors de la mise au point d'un robot, il faut se poser la question de la reprise en main que l'utilisateur peut effectuer au détriment du robot. Il faut aussi laisser la possibilité à l'humain de désactiver les fonctions autonomes du robot.
Il faut aussi faire en sorte que les décisions du robot ne soient pas prises à l'insu de l'opérateur. Il y a également un effort à faire en matière d'éducation, pour habituer les gens à côtoyer des robots. Je pense aussi qu'il faut programmer des limites morales que le robot ne doit pas dépasser, et permettre la traçabilité des décisions prises par les intelligences artificielles.
Et du point de vue des législateurs ? Comment sanctionner les « mauvaises décisions » de l'intelligence artificielle ?
Il existe deux courants chez les législateurs : ceux qui pensent qu'il faut donner une personnalité juridique aux robots, aux IA, et un autre courant qui affirme au contraire que la législation déjà existante sur les objets défectueux est suffisante. Selon moi, il y a un risque de confusion sur la place de l'humain dans la société à donner une existence juridique distincte à des machines.
Je prône une position intermédiaire dans laquelle on impose un certains nombre de verrous et de garde-fous adaptés à l'usage des intelligences artificielles : qu'une IA destinée au jeu commette des erreurs n'est pas grave mais ce n'est pas le cas d'une IA chargée d'établir un diagnostic médical. Dans ce dernier cas, il faut que des responsables humains restent dans la boucle.
Professeur en Informatique à Paris-Sorbonne, chercheur au Laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur (LIMSI) du CNRS, à Orsay.
Auteure du livre « Des robots et des hommes : Mythes Fantasmes et réalité » (Plon, 2017),
Transition de genre : la Cpam du Bas-Rhin devant la justice
Plus de 3 700 décès en France liés à la chaleur en 2024, un bilan moins lourd que les deux étés précédents
Affaire Le Scouarnec : l'Ordre des médecins accusé une fois de plus de corporatisme
Procès Le Scouarnec : la Ciivise appelle à mettre fin aux « silences » qui permettent les crimes