Après avoir pris en compte les observations issues d’une large consultation, le Secrétariat (section Ethique du secteur SHS – Sciences Humaines et Sociales) soumet aux Etats membres un rapport révisé afin de mettre au point une version définitive au cours de deux sessions de travail s’étalant sur deux fois cinq jours (quatre heures par sessions) la première en avril et la seconde prévue pour la mi-juin). Le document issu de ces échanges sera soumis à la 41ème session de la Conférence Générale.

Les séances étant ouvertes aux observateurs extérieurs dûment inscrits, le CCIC a pu suivre une grande partie des premiers échanges.

On propose ci-après surtout de livrer les quelques observations que nous ont inspirées les débats préalables auxquels ont participé les représentants de plusieurs dizaines d’Etats et de quatre ONG. Pour ce qui est des travaux d’aménagements éditoriaux, on s’en tiendra à des remarques succinctes car il s’agit d’un exercice de longue haleine qui ne se terminera qu’en juin.

L’ADG en charge du secteur SHS a présenté succinctement la structure révisée du rapport présenté.

Introduction de Madame Gabriela Ramos (ADG du secteur SHS)

L’ADG a rappelé que le rapport soumis à discussion est une version déjà très aboutie qui a pris en compte les retours d’une très large consultation menée sous la supervision du Groupe de Haut Niveau en charge du pilotage de la démarche et de la rédaction du rapport ainsi que des propositions.

Elle a résumé la substance du document en donnant les éléments clefs retenus :

  • Quatre valeurs essentielles (le respect des droits de l’hommeDH– et des libertés fondamentales, l’environnement, la diversité et l’inclusion, la Paix pour des Sociétés interconnectées ;
  • Dix principes : proportionnalité / sécurité-sureté/ justice-non-discrimination/ Vie privée/ supervision humaine/ soutenabilité/ transparence/ responsabilité-redevabilité/ conscience- connaissance/ association de tous les acteurs ;
  • Onze domaines explorés : impacts/ gouvernance/ données/ coopérations/ environnement-écosystèmes/ genre/ culture/ éducation-recherche/ communication-information/ économie-travail/ santé-bien-être ;
  • Deux outils à mobiliser : études d’impacts, méthodologie.

Elle a signalé parmi les éléments nouveaux repris à la suite de la consultation : la Santé (mise en rapport avec les DH), concernant l’environnement, l’attention à porter à la Vie et au Vivant, La Communication et l’Information, et, au niveau des principes, l’introduction de la notion de proportionnalité.

Gabriela Ramos a insisté sur trois thèmes qui doivent appeler une particulière attention : les Femmes, les questions autour de la gouvernance et les coopérations notamment celles qui visent les actions de solidarité.

Le Débat introductif

Les intervenants (une cinquantaine d’états se sont exprimés) ont été unanimes pour reconnaître la qualité des travaux fournis par les services, même si certains délégués ont exprimé leur regret de n’avoir pas toujours été entendus.

Ils ont été nombreux à redire à quel point l’UNESCO était fondée à mener ce travail de portée universelle d’autant plus que le thème de l’Intelligence Artificielle (IA) touche absolument tous les domaines couverts par son Mandat.

Comme cela a été précisé par Madame Ramos, il s’agira d’une Recommandation non contraignante (non binding), plusieurs Délégués ont insisté sur ce point. A plusieurs reprises, il a été recommandé de ne pas donner au texte une dimension trop prescriptive. Plusieurs orateurs ont rappelé que bien évidemment la norme sera appelée à être intégrée dans le corpus des règles nationales avec un rôle essentiel à jouer par les Etats. Mais, et ceci a été rappelé par l’ADG, il s’agit, comme pour toute norme éthique, de fournir des réponses pratiques là où la réglementation n’a pas vocation à intervenir.

Les observations sont restées assez générales, et un certain nombre d’entre elles se sont trouvées maintes fois répétées ; elles ont toutes eu pour objet d’insister sur des thèmes partout présents dans les Programmes et Projets de l’UNESCO à savoir : les Droits de l’Homme, le Genre, les ODD, l’inclusion, la diversité culturelle, la nécessité d’approches multipartites, interdisciplinaires, l’attention aux inégalités et notamment au fossé du numérique, la justice sociale et « géostratégique » (ne pas laisser pour compte les pays les moins avancés).

Lorsque les propos ont été tenus sur des aspects un peu plus « techniques », ils ont souvent porté sur les « données », avec une invitation à bien assurer leur protection ; à propos des algorithmes, un intervenant a rappelé qu’il fallait bien en comprendre le fonctionnement, et un autre a insisté pour que les utilisateurs soient bien informés lorsqu’ils sont en contact avec des systèmes automatisés.

Trois sujets ressortent comme devant être bien pris en compte : se soucier des impacts, de la mise en œuvre et de l’évaluation. Concernant l’évaluation, exercice délicat à mener, il a été suggéré de ne pas s’en tenir à des indicateurs quantitatifs (importance des analyses qualitatives).

Enfin, on aura été particulièrement sensibles à un petit nombre d’interventions assez incisives faisant ressortir les thèmes qui se rattachent à l’Humain ; si tous s’accordent à reconnaître l’importance de l’humain dans les questions touchant à la conception et au déploiement de l’IA, peu d’intervenants en parlent précisément pour en montrer les risques. Lors des discussions qui ont suivi pour procéder aux aménagements éditoriaux, on aura pu noter à quel point, en dehors des Droits humain, cette question de l’humain est difficile à intégrer.

Un intervenant a parlé des risques du point de vue biogénétique, un autre a appelé l’attention sur « une métamorphose de l’homme ».

Aménagements éditoriaux : quelques réflexions

Les amendements proposés ont été nombreux. Il y a bel et bien un fort intérêt pour un sujet qui de fait, est de grande importance.

Compte tenu des difficultés pour adopter des aménagements consensuels, le Président de séance a été amené à fixer des règles assez strictes au fil des échanges dans la mesure où les débats tendaient à s’éterniser (ne pas rouvrir de débats, être précis, discuter des seuls ’amendements présentés préalablement et adressés suffisamment à l’avance etc.).

Des échanges que l’on aura suivis (toujours en ligne), on aura retenu plus particulièrement les points suivants :

Au niveau du point « champ d’application », on aura relevé un ajout bien venu qui implicitement renvoie à une référence aux deux Comité d’Ethique de l’UNESCO : la COMEST, pour les sciences et technologies, et le Comité International de la Bioéthique CIB). Un délégué a opportunément proposé de mentionner les quatre piliers que retient le CIB dans ses grilles d’analyse : la dignité de la personne, l’autonomie, la justice, les préjudices (ou mises en danger) .

Un délégué a beaucoup insisté sur la nécessité de prendre en compte les diversités culturelles. La version retenue a atténué quelque peu sa proposition d’amendement.

A propos de la qualification de l’approche retenue pour appliquer la norme, on s’est accordé pour dire qu’elle devrait être évolutive, holistique Une proposition pour préciser « centrée sur l’Humain » n’a pas été retenue ; la dernière version a simplifié en retenant le terme « comprehensive » en anglais, ce qui préserve une dimension englobante tout comme l’adjectif « holistique ».

De très longues discussions ont porté sur des questions juridiques en rapport avec les droits humains, le droit international, la charte de l’ONU. Certaines délégations ont ainsi tendu à défendre des formulations visant à affirmer le respect des prérogatives souveraines des Etats, les versions finalement adoptées ont retenu une rédaction beaucoup plus nuancée, en gardant les références aux droit international.

A noter plusieurs suggestions non retenues, comme par exemple le fait de mentionner parmi les risques les thèmes du transhumanisme, de la super-intelligence, ou de l’homme augmenté. Cela étant noté, le document précise bien toute l’importance à attacher au bien être des personnes, à l’humanité. A cet égard, on aura relevé des échanges peu nombreux mais intéressants autour de l’humain ; ainsi, par exemple, une discussion sur la dignité humaine : une délégation a proposé de moins mettre en exergue cette notion figurant dans un titre « à égalité » avec les droits humains : selon elle, la dignité humaine est à voir comme incorporée dans les droits humains ; cette interprétation, fort opportunément, n’a pas semblé être aussi nettement partagée : sans qu’il y ait eu de longs commentaires, plusieurs intervenants ont ainsi contesté l’idée que la « dignité humaine » soit réduite à une notion de droit. Au demeurant, le texte qui a été examiné fait figurer en plusieurs endroits des références à la dignité, et à la personne humaine (human, ou human being dans la version anglaise).

A à propos de l’un de ces alinéas faisant référence à ce sujet essentiel de la personne humaine (human being), un intervenant a exprimé l’idée qu’il faudrait mieux la mettre en valeur, mais faute de proposition précise, le point n’a pas été retenu.

Autre échange que l’on aura remarqué, à propos d’une allusion aux personnes vulnérables dont il faudrait se préoccuper (« care ») en rapport avec l’IA ; une proposition était de parler plutôt des personnes en situation d’être vulnérable ; à juste titre on a fait observer que ce n’était pas la même chose, les personnes vulnérables étant des personnes souffrant d’un handicap permanent alors que le cas des personnes en situation vulnérable concerne des personnes se trouvant dans des situations plutôt temporaires (exemple victimes de catastrophes naturelles ou humanitaires) le compromis a été de retenir les deux cas visés.

De longs échanges ont porté sur les conditions dans lesquelles, pourraient être envisagés certains accommodements en rapport avec les droits humains et le respect des libertés fondamentales. Le groupe de rédaction constitué pour trouver une version acceptable de l’article concerné a été en mesure de trouver une formulation consensuelle, en simplifiant l’expression, avec la reprise de plusieurs points importants : respect des lois nationales, des principes du droit international (avoir une solide base juridique), mais aussi, prise en compte du principe de proportionnalité, et appréciation du caractère raisonnable des limitations admises (avec notamment juste mesure de leurs effets)

A noter qu’ont été écartées les questions touchant à l’utilisation militaire de l’IA : le sujet est jugé comme ne relevant pas du mandat de l’UNESCO. Un amendement a bien rappelé ce point (la norme vise les seuls domaines de compétence de l’UNESCO), et dans la description du champ d’application de la norme, ont bien été précisées les activités qu’elle concerne en les regroupant autour des Sciences, de l’Education, de la Culture ainsi que de la Communication et des Informations. Si le sujet « militaire » a bien été considéré comme « hors sujet », on aura remarqué l’ajout d’un amendement spécifiant que doivent être encouragées les utilisations pacifiques des systèmes d’Intelligence Artificielle.

Lors de la dernière session, ont été revus et, pour la plupart, acceptés les articles précédemment discutés dont il avait été convenu qu’ils soient retravaillés au sein de petits groupes de rédaction pour aboutir à des versions plus consensuelles. Par ailleurs l’examen du projet s’est poursuivi jusqu’à l’article 25 (sur la cinquantaine d’articles que comprend le projet).

De ces derniers échanges, qui se sont déroulés de façon plus fluides que les jours précédents (du fait de la démarche très précise proposée par le président en début de séance et des travaux menés dans les sous-groupes de rédaction en vue de traiter les points non consensuels), on aura pu relever les éléments suivants :

  • Maintien d’une allusion aux « communautés » dont il faut se préoccuper d’un bon traitement ;
  • Débat sur deux critères à bien retenir (l’interdépendance -interconnectivedness- et l’inclusion) ;
  • Des suggestions non retenues souvent au motif qu’elles trouvaient leur place dans des partie à traiter ultérieurement mais aussi parce qu’elles ne relevaient pas à proprement parler de la notion d’éthique ou encore parce qu’elles visaient simplement à répéter des exigences déjà reprises (notamment dans le préambule). Ces suggestions se rapportaient aux sujets suivants : la souveraineté des Etats, l’extraterritorialité du droit, la question des plateformes transnationales. Une proposition a été non retenue dans la mesure où elle changeait le sens de l’article concerné : s’agissant ici de préciser que dans leur esprit, les systèmes d’IA devaient préserver la qualité des relations au sein des sociétés, l’amendement proposé, très juridique, ne faisait plus ressortir la vraie signification du dit article. A signaler enfin, trois sujets sur lesquels les positions exprimées restent pour le moins nuancées ou non partagées : insertion ou non d’une référence explicite aux orientations sexuelles (à propos des discriminations), référence aux critères de paix et d’harmonie (entre les êtres vivants ou entre les êtres vivants et la nature), évocation des possibles impacts négatifs des systèmes d’IA pour l’humanité prise comme un tout (as collective).

Conclusion

Au terme de cette première série d’échanges qui ont été très denses, il est apparu qu’encore beaucoup reste à faire : une série d’objections non encore prises en compte nécessite de poursuivre les discussions avant l’engagement du second « round » de discussion en juin ; le Président a ainsi invité les participants aux travaux à poursuivre leurs délibérations durant les semaines à venir afin que soit présentée une version consensuelle de tous les articles jusqu’ici examinés (les 24 premiers articles de la norme) au début de la prochaine session, avant de poursuivre l’examen des autres articles.