Deux heures d’échanges qui se sont tenus le 26 mars. Cette troisième Table Ronde fait partie des travaux engagés par le secteur des Sciences Humaines et Sociales dans le cadre de la préparation d’une Norme sur l’Ethique de l’Intelligence Artificielle (IA).

La Discussion a été animée par M Paul Verbeck Président de la COMEST (Commission Mondiale pour l’Ethique des connaissances Scientifiques et Techniques). Sont intervenus Sheila Jasanoff, professeur de Sciences et Techniques (Université de Harvard – Kennedy School), Jason Edwards, chercheur engagé sur les Média numériques au bénéfice des communautés autochtones et professeur de design et art numérique à l’Université Concordia (Canada), Mme Shoko Suzuki, de l’Université de Kyoto, professeur de Sciences de l’Education .

L’échange a permis de mettre en évidence un grand nombre de questions essentielles touchant à l’humain et montré que, avec l’IA de plus en plus présente, la grande Révolution numérique partout engagée n’est pas une banale évolution. Il y a avec elle des interpellations auxquelles il faut prêter une grande attention, ce webinaire en a fait ressortir quelques-unes mais elles sont loin d’avoir épuisé le débat en la matière.

Propos introductif de la sous directrice générale en charge du secteur Sciences Humaines et Sociales (Madame Ramos)

Le monde est divers et c’est une richesse pour notre humanité, il faut s’assurer que l’IA en plein essor ne vienne pas entamer ce capital humain en posant de bonnes questions à son sujet : ces techniques sont elles inclusives, représentatives de toutes les parties qu’elles affectent, justes dans la répartition de leurs bienfaits et leurs accès ? Respecte-t-on bien les valeurs fondamentales des communautés ? N’y a-t-il pas des inégalités de traitement, et en particulier est on assez respectueux de la diversité linguistique ? Quel traitement des données personnelles ? etc.

Il faut de bonnes réponses à toutes ces préoccupations, il y va de la confiance qu’il faut avoir dans ces nouvelles technologies, une confiance qui ne peut être assurée qu’avec l’assurance d’une grande clarté. L’édiction de normes comme l’UNESCO s’y prépare pour « l’éthique de l’IA ».

Le message du Secrétaire Général adjoint de la Commission Nationale UNESCO du Japon (M Yoshiaki Ishida)

Le propos tenu sur l’IA est très positif : elle va aider à créer un monde extraordinaire, réaliser les objectifs des ODD de l’agenda 2030 et sera l’élément clef pour entrer dans la société du futur (la société 5.0).

Mais ces progrès que l’on peut légitimement escompter supposent une bonne utilisation de l’outil et un accompagnement tout comme certaines protections, c’est ce à quoi l’UNESCO s’emploie et il faut s’en féliciter.

Présentation de Mme Sheila Jasanoff comme keynote spearker : trois pièges à éviter

Comme chercheur, l’oratrice voit avec l’IA dans son rapport à la culture quatre grandes questions à traiter : le cosmopolitisme du monde, les défis de la modernité en rapport avec les avancées des technologies, la problématique du « global » et le thème de la gouvernance.

Avec comme légitime préoccupation la préservation des diversités culturelles constitutives de notre monde, il faut aussi réfléchir au devenir des imaginaires dans les sociétés dès lors que l’IA avec un imaginaire qui lui est propre peut prendre le dessus.

Face aux risques que peut présenter l’IA, il y a trois pièges à éviter pour préserver la diversité culturelle :

Le piège de l’inévitabilité 

Ne pas être naïf et croire que l’IA est inéluctable parce que c’est le sens du progrès et que le progrès sous l’influence des techniques va toujours dans le sens d’une amélioration.

Ne pas céder à la séduction de ces machines qui ressemblent de plus en plus à l’humain mais qui ne savent pas bien intégrer les éléments de contexte comme tout ce qui a trait à la diversité et qui tout simplement tendent à faire – souvent en un peu moins bien – des choses que l’on pratique depuis longtemps : lire, parler, écouter…

L’ordre nouveau qui pourrait s’installer si on n’y prenait garde introduirait une logique d’omniprésence pouvant porter atteinte à la liberté et au génie créateur de l’homme, notamment dans l’art s’il advenait qu’il ne soit plus que numérique (et partant coupé de la matière physique).

Attention à ne pas prendre irrésistiblement une direction qui ferait que que la fiction – voir l’Odyssée de l’espace et l’empire des humanoïdes – devienne notre réalité.

Le piège d’une réduction de la Singularité

La grande illusion est de croire que l’IA c’est comme une réplique de l’intelligence de la Personne

Ce n’est qu’une « chose » (logiciel applicatif, système programmé) qui, certes, permet d’extraordinaires performances supérieures aux nôtres dans certains domaines, mais celles-ci sont fondamentalement quantitatives et limitées à des fonctions (calcul, mémorisation, comparaison etc) qui sont loin d’avoir tous les attributs de l’intelligence humaine, dont la richesse est d’être multiforme avec une spécificité précieuse et singulière attachée à chaque personne : forme de l’intelligence, caractères, singularités physiques… intelligence de l’autre ou du cœur aurait-on pu ajouter.

En faisant ainsi ressortir tout ce que l’intelligence humaine présente comme multiplicité de ses configurations, on ne peut que se rendre à l’évidence : l’IA a des caractéristiques limitatives, qui, sauf à prendre des positions dangereuses, ne sauraient la faire vraiment ressembler à l’humain : il y a un « indépassable de l’humain ».

Il importe de bien prendre en compte le risque de chercher à le faire pour des objectifs douteux (exploitation économique ou politique), mais la tentation peut être grande d’essayer d’investir certains terrains comme celui de la pensée et des opinions à des fins inacceptables ou à tout le moins discutables ; l’oratrice parle ainsi de dérives possibles : capitalisation de la pensée, colonisation des esprits, sélection automatiques par des scores qui peuvent éliminer injustement, trois exemples de possibles emprises de l’IA aux effets négatifs insidieux.

Le piège de la Rapidité

Si la rapidité des résultats que peut produire l’IA présente souvent d’incontestables avantages, on ne doit pas négliger certains inconvénients de la propension de l’IA à l’immédiateté : on tend à se soumettre à la pression du temps court, à entrer dans une course sans fin qui peut insensiblement éliminer des pans entiers de ce qui constitue l’un des richesses authentique de l’humain : le ressort de nos connaissances tacites, la mobilisation de l’imaginaire de l’artiste, la méditation (NDLR l’orateur n’a pas donné ce terme mais il en a suggéré l’esprit), en deux mots, tout ce qui renvoie à l’idée d’une « intelligence lente », et en un mot, ce qui est de l’ordre de la « sagesse ». Si on a besoin d’éphémère, il serait problématique que l’on entre dans une société où seul compterait le temps réel et d’où l’on aurait sinon éliminé du moins réduit la part réservée au souvenir, dans un monde qui serait obnubilé par le « présentiel en ligne » sans pouvoir garder traces de nos souvenirs. Avec la puissance des grands opérateurs, il y a là tout un ensemble de questions relatives au droit à l’oubli et à l’empreinte laissée ou non dans un univers de plus en plus soumis à la contrainte du temps réel. Pour les maitriser, il est impératif de se fixer des règles, éthiques notamment, afin d’éviter de subir une exigence de rapidité dommageable que pourraient imposer de plus en plus les promoteurs de systèmes automatisés.

Un regard venant d’Asie : l’Harmonie dans un monde en constant changement

La montée de l’IA dans nos sociétés amène à revoir la définition de ce que recouvre notre humanité : il nous faut maintenant vivre dans l’ère de l’IA ,et voir comment « l’Etre Humain » avec ses qualités uniques – comme par exemple son aptitude à l’intuition – va pouvoir intégrer cette « civilisation technologique » en train d’émerger, avec l’avènement de l’IA, un outil innovant qui fonctionne avec sa logique et sa langue, et à laquelle il faudra s’adapter.

Mais cette adaptation ne doit pas impliquer qu’on oublie certaines de nos compétences ou qualités qui ne sont pas d’ordre technique, ; il y a toujours eu des évolutions liées à la technique et aux sciences, et sous tendues par un système de valeurs propres à l’humain, et, ici, beaucoup des ce à quoi on est parvenu jusqu’à présent renvoie aux grandes idées du siècle des Lumières : émancipation des personnes, autonomisation, responsabilité individuelle, primat de la raison, autant de notions que l’on trouve mises en avant par les promoteurs de l’IA.

Mais la radicalité des changements induits par l’IA, amène à introduire des idées nouvelles pour assurer le maintien des compétences (aptitudes) humaines, avec des angles de vue à mieux faire valoir.

Il y a en effet à faire le constat que fondamentalement l’IA repose sur deux piliers performants certes mais réducteurs : la raison (voir les algorithmes) et les (télé) communications ; manquent ici dans une large mesure d’autres éléments qui touchent profondément l’humain : l’émotionnel, la sensibilité, l’intuition, la sagesse traditionnelle.

L’important alors est de trouver dans le monde en train de se restructurer les moyens de laisser co-exister l’ensemble de ces éléments (techniques et non techniques), ce qui amène à devoir traiter autrement que par le biais technique des aspects qualitatifs essentiels qui relèvent de la Nature Humaine comme la protection de la vie, la célébration de tout ce qui est beau,la recherche d’une harmonie qu’il faut préserver dans un monde en constant changement.

L’IA et les Cultures autochtone : la préservation de valeurs essentielles profondément humaines

Dans une large mesure M Jason Edwards a repris dans son intervention les conclusions d’un rapport produit en 2018 traitant de la question de l’IA et des cultures autochtones.

Cette réflexion collective issue d’une collaboration universitaire internationale (Canada, Nouvelle Zélande, Australie) et reposant sur les résultats d’enquêtes sur le terrain, fait ressortir d’intéressant résultats quant à la question des diversités culturelles.

Face à l’IA les populations interrogées ont fait ressortir clairement les craintes que leurs inspirent la mise en œuvre de processus commandés par des systèmes codifiés supposés reproduire ou approcher les mécanismes de nos pensées et de s’insérer dans nos modes de vie. Ces objections ou réserves ont largement trait aux éléments qui fondent ces sociétés autochtones. Les personnes interrogées craignent que le déploiement de ces systèmes mette à mal l’organisation des communautés, leur conception de la parenté ,les relations interpersonnelles notamment intergénérationnelles, le régime de transmission des valeurs traditionnelles ; l’artificialisation inhérente à ces technologies suscite aussi l’inquiétude quant à de possibles effets néfastes sur le rapport que ces populations ont avec le vivant, la nature qu’elles connaissent intimement et dont elles pourraient s’éloigner. Enfin, dernière appréhension exprimée : la crainte de disparition de leurs langues et d’une élaboration d’applications complètement étrangères à leurs mentalités (cultures).

Le Débat : quelques autres observations et idées clefs

M Verbeck a invité les orateurs à réagir à toute une série de questions ; on donne ci-après les éléments qui ont pu le plus retenir l’attention.

S’il faut bien traiter les questions éthiques, on doit se garder d’envisager toute une série de règles d’application générale ; en revanche, la définition d’un cadre avec des principes directeurs – comme s’apprête à le faire l’Unesco va dans la bonne direction.

C’est dans le même esprit, qu’a été développée l’idée de systématiquement pouvoir bien combiner les dimensions de l’universel et du local (national), lorsqu’on explore les questions touchant l’IA dans son rapport aux sociétés et aux personnes. La Vérité n’est pas un absolu déclare l’un des intervenants.

Si on a besoin de normes à définir aux bons niveaux, elles ne doivent pas être d’une excessive lourdeur.

Rien ne va de soi ; il faut toujours s’interroger sur la pertinence de l’IA lorsqu’on se propose d’en adopter l’usage pour un traitement donné.

Ne jamais s’enfermer dans la Technique et se laisser trop facilement séduire par ses performances (sa toute-puissance)

Danger d’entrer dans un monde qui serait structuré essentiellement par des systèmes pratico-pratiques, utilitaires régis par la technique et qui délaisseraient des domaines comme la religion, le sacré, l’art.

Pour rester à un niveau conceptuel, à plusieurs reprises il a été fait remarquer qu’on devait appuyer toutes réflexions sur l’IA sur de bonnes considérations épistémologiques, ce qui signifie avoir de bonnes méthodes d’analyse et une claire définition des concepts que l’on mobilise (le sens des termes employés), cette remarque s’applique tout particulièrement aux sujets éthiques qui sont de grande importance.

Un échange a porté sur l’anthropologie, en suggérant ici qu’il fallait presque ne plus employer ce terme dans la mesure où l’on pourrait entrer dans un monde totalement reconfiguré avec par exemple le développement de la robotisation et l’avènement d’humanoides avec lesquels l’homme serait de plus en plus appelé à interagir comme s’ils devaient s’intégrer dans la famille humaine. Ce point a été simplement suggéré. On a tout de même parlé de « l’accueil des robots » auxquels il faudra se familiariser dans des relations qui restent à mieux cerner (juridiquement ?NDLR)

A propos de l’Etre humain confronté de plus en plus à l’IA, la question de son épanouissement a été posée : y a-t-il une réponse possible à portée universelle ? A certains égards la réponse pourrait être positive, si l’on peut s’accorder sur l’application des grandes valeurs que sont les droits humains, la citoyenneté du monde ou la protection de notre planète, mais inévitablement on s’expose à un risque d’abstraction, alors que chaque individu est situé dans son environnement propre, dans son contexte social et culturel, avec ses relations (aux autres, au monde du vivant, avec les choses) ; clairement l’IA doit tenir compte de ces éléments de complexité pour contribuer au bien-être des Personnes.

Autre réflexion d’ordre philosophique à propos des mutations engagées : sommes-nous amenés à oublier complètement l’idée platonicienne qu’il existe une sorte d’intangible de notre humanité que l’IA et les technologies ne remettent pas en cause, ou bien, au contraire, est on maintenant voué à des changements qui rendraient notre monde sinon plus instable du moins de plus en plus mouvant, et qui nous priveraient d’un socle de référence fixe ?

A la question qui précède, une réponse possible pourrait être celle qu’a suggérée l’intervenante japonaise : compter sur une quête d’harmonie à préserver sans s’opposer au mouvement : une harmonie dynamique.

Bien distinguer Raison et Sagesse, cette dernière pouvant être une lumière susceptible d’éviter certaines erreurs susceptibles de découler d’un excès de rationalité.

Dernière observation relevée : L’Humain doit garder le contrôle de l’IA, il ne faut pas qu’il se trouve dépossédé par les technologies, c’est probablement au niveau de la Cité qu’on peut le mieux assurer cette maîtrise.

On aura noté des affirmations quelque peu provocatrices même si elles n’étaient pas exprimées sur un ton polémique : « il faut redéfinir notre humanité (?), nous entrons dans une sorte de « IAisation du monde », on a évoqué un « imaginaire de l’IA ».

Une observation en conclusion : regard du CCIC

Échanges très riches qui ont montré à quel point il ne faut pas s’en tenir aux sujets techniques lorsqu’on réfléchit à l’Intelligence Artificielle : avec comme thème le rapport de l’IA aux cultures et à la diversité des expressions culturelles on a bien mis en évidence la nécessité de penser à l’humain lorsque l’IA fait irruption dans nos vies ; c’est une nécessité et on l’a montré avec toute la complexité des problématiques qu’il y a à traiter. Cela touche à l’humain pris dans sa dimension collective, mais aussi pris comme personne, sans doute aurait-on pu plus parler de la question proprement individuelle, cela dit le thème soumis à discussion et la contrainte du temps imparti imposaient une focalisation qui ne permettait pas de le faire de façon plus approfondie.