Dans le cadre de la journée mondiale de la philosophie, un « événement parallèle » était organisé pendant la Conférence Générale par le Secteur des sciences humaines et sociales de l’UNESCO et la Délégation Française en présence de l’ambassadeur M. Philippe Franc, pour évoquer les questions philosophiques, éthiques, morales, que suscite le rôle de l’Intelligence Artificielle dans les traitements relevant de la santé mentale.

Madame Ramos, Sous-Directrice générale pour les Sciences sociales et humaines explique son souhait de sensibiliser les participants présents à l’occasion de la conférence générale aux travaux de son secteur en matière d’éthique des neuro-technologies, soulignant l’apport du CIB (Comité international de bioéthique) dans son rapport sur les aspects éthiques des neuro-technologies ( voir notre article, ce rapport ayant été présenté à Paris le 13 juillet dernier) , et du programme MOST (Programme sur la Gestion des transformations sociales), au moment où est proposé aux états que soit élaborée une recommandation sur l’éthique des neuro-technologies.

 

Les auteurs de ce rapport en ont brossé les grandes lignes, soulignant le poids pour les malades des troubles psychologiques et mentaux, et leur coût pour la société lorsque l’on comprend que le traitement des troubles mentaux représente un tiers des dépenses globales de santé. Le Pr Chneiweiss évoque les avancées sidérantes de ces technologies comme faire parler un patient qui avait perdu la parole depuis 10 ans, ou le « décodage »  de l’activité cérébrale, permettant une interface pensée/machine… à l’aide de procédés très invasifs. Il souligne que les innovations sont le fruit d’une convergence de plusieurs technologies et impliquent des investissements colossaux d’entreprises privées. Il interpelle les représentants des états en particulier sur l’équité dans l’accès aux traitements très coûteux (100 00 $ pour un nouveau traitement de la maladie de Parkinson), et sur l’usage possiblement pervers de certaines techniques, le contrôle social par exemple.

 

Premier point mis en évidence, dans la table ronde, et non des moindres loin s’en faut : la complexité des problèmes à traiter, dans la mesure où l’on recherche avec l’aide de l’IA à comprendre et traiter des pathologies qui touchent à l’intimité des personnes alors que le mystère de l’esprit reste entier. C’est tout le défi de l’approche technique de l’humain que l’on a à surmonter ici.  Autre difficulté à laquelle faire face : celle de trouver constamment un traitement approprié du couple de valeurs – liberté/sécurité – pour être assuré que les processus automatisés n’exposent à de sérieux dangers : exploitation abusive ou erronée des données personnelles, valeur du consentement pour des fonctionnalités sensibles du point de vue du respect de la personne.

Madame Lazeri, psychiatre albane, souligne l’absence de régulation de la mise sur le marché des neuro-technologies contrairement à celle des médicaments. De plus, faute d’accès à des médecins compétents, les patients se tournent vers des produits d’IA (chatbots) qui ont parfois mené au suicide.

Monsieur Uichol Kim, psychologue coréen, questionne le fait de vouloir « augmenter » quelque chose qu’on ne connait pas : l’intelligence, l’esprit humain, qui restent quasiment inconnus, même si l’on sait maintenant localiser certains mécanismes dans le cerveau.

Le philosophe suisse Gustaf Arrhenius indique que comme l’IA fonctionne à base de statistiques sur d’énormes quantités de données, la fiabilité de ses prévisions laisse place à une marge d’erreur discutable en termes de santé humaine. Il évoque également l’évolution de techniques qui permettaient jusqu’ici de diagnostiquer par exemple la schizophrénie, vers une capacité à prédire la survenue d’une telle pathologie, par l’analyse des traces laissées par une personne sur internet. D’où ces questions éthiques : opportunité de prévention, d’intervention, de thérapie coercitive ? Quel usage pourraient faire certaines entreprises de l’analyse de ces traces, ou de ces prévisions ? n’y a-t-il pas un risque de discrimination ?

Le philosophe sud-africain Mpho Tshivhase évoque l’éventualité de la prévalence des rapports homme/machine sur les rapports humains, et son incidence sur le bien être psycho-émotionnel. Cela met en cause ce qui constitue l’être humain, et il dénonce la forme humaine que prennent certains robots, qui engendre le trouble chez l’utilisateur. La conscience morale se détériore, l’empathie aussi, par l’usage débridé de robots ou autres machines dites intelligentes.

Le philosophe français Eric Fourneret évoque l’enjeu épistémologique que présentent les  produits de l’IA : qui en valide les résultats, qui est garant de ces résultats alors que les bases de données et la fiabilité d’un processus statistique sont discutables ? Par ailleurs peut-on se satisfaire de connaissances très partielles sur une personne sur la base de données passées alors que l’individu n’en est pas prisonnier. Il dénonce encore « l’idéologie de la promesse », qui donne à croire qu’on est capable de venir à bout de toute vulnérabilité, évoque l’enjeu pour l’éducation, et craint que l’on perde le sens de l’humanité.

L’ italienne Daniela Piana, professeur de sciences politiques conclut par quelques autres sages recommandations : rester prudent, traiter avec soin les questions ayant trait aux données (leur collecte, leur contenu), se garder de trop déléguer aux systèmes, celle de l’importance aussi de constamment savoir exercer son esprit critique et agir en conscience dans l’utilisation de ces systèmes d’IA se rapportant à la santé (publique ou individuelle)

Dans ce qu’on pourrait appeler le maelstrom de la technisation qui n’épargne pas le monde médical, a été très justement rappelé le rôle éminent que doit continuer de jouer le médecin lequel devra toujours « rester présent en humanité » auprès de son patient nonobstant tous les progrès apportés par les technologies d’assistance médicale.