Ce séminaire organisé par l’IFAP – Information For All Program de l’Unesco– a réuni une dizaine de participants appelés à faire le point sur cette norme importante entérinée le 21 novembre par la dernière Conférence Générale. Ces experts, dont plusieurs ont fait partie du groupe de Haut Niveau qui a piloté l’élaboration de la dite-norme, ont tout à la fois rappelé l’historique de cette entreprise de grande envergure et produit d’intéressantes réflexions dont on reprend ici celles qui ont le plus retenu notre attention

L’ échange animé par Madame Dorothy Gordon – Présidente de l’IFAP – est une nouvelle initiative de l’Unesco à propos de l’Intelligence Artificielle, elle est d’abord à voir comme une action de sensibilisation sur le sujet «  éthique de l’IA »  mais c’est aussi l’un des nombreux évènements (ateliers, conférences, publication de rapports etc)   organisés à Paris ou à l’étranger pour promouvoir la démarche très engagée de l’Unesco dans le domaine du numérique et ici plus spécifiquement de l’IA , avec, on le rappelle, une idée phare : « pour une approche humaniste de l’IA » 

L’échange a été introduit par les deux Directeurs Généraux adjoints des secteurs « Sciences Humaines et Sociales » –Madame Ramos– et « Communication -Information » – Monsieur Tawfik Jelassi, qui ont porté le projet et qui sont les plus concernés. Les intervenants venus d’horizons géographiques variés ont été essentiellement des universitaires et/ou chercheurs.

Propos introductif de Madame Gordon

Il y a abondance d’initiatives prises à propos de l’IA (OCDE, Parlement Européen et Conseil de l’Europe notamment) mais au-delà de démarches régionales, il était important que soit produite une réflexion et finalement une résolution (la norme) au niveau onusien (à l’Unesco) parce qu’ici se manifeste la force d’une organisation mondiale capable d’informer, d’influencer et de rassembler sur un « commun » essentiel pour nos sociétés de la connaissance. Mais, la norme n’est qu’une recommandation. Il faut maintenant veiller à sa mise en œuvre au niveau des Etats.

Les Interventions des deux ADG des secteurs SHS et CI

Mme Ramos

En présentant synthétiquement le contenu de la norme, Gabriela Ramos a insisté sur les points suivants : il s’agit d’une « première » dans la mesure où son champ d’application est global (approbation par 193 états), et très large dans son contenu, un contenu rigoureusement structuré autour d’une dizaine de principes et quatre valeurs clefs (droits de l’homme, environnement, diversité, paix), avec l’identification d’une dizaine de domaines pour conduire des politiques publiques. Pour appréhender les questions éthiques se rapportant à l’IA, trois caractéristiques (impératifs) sont à mettre en évidence : l’inclusion, la prise en compte des impacts (« outcome ») et la soutenabilité.

La norme est un document-cadre à voir comme un outil mis à disposition des Etats pour qu’ils l’utilisent dans les aménagements réglementaires ou législatifs qu’elle pourra justifier.

Le sujet n’est pas figé, les réflexions vont se poursuivre ; à signaler la création récente d’un groupe des amis de la norme « éthique de l’IA » 

L’IA étant certainement appelée à connaître de nouveaux développements à forts impacts, compte tenu de l’ambivalence de ses effets, à propos d’éthique, il est important d’accompagner ces changements avec de bonnes gouvernances et une bonne appréciation de ces évolutions ; l’Unesco pour sa part poursuivra l’action en la matière comme l’illustre deux de ses récentes initiatives : lancement d’un observatoire de la norme et d’une réflexion sur l’anthropologie numérique.

Mr Jelassy

A été rappelé le rôle que l’IFAP joue depuis vingt ans dans l’organisation de dialogues sur tout ce qui touche au traitement de l’information.

Dans l’approfondissement des réflexions sur la norme « éthique de l’IA » et surtout sa mise en œuvre, l’ADG a souligné tout l’intérêt de la prise en compte des grandes thématiques de la démarche ROAM (« Right », « Openness », « Accessibilty », « Multi-stakeholders ») et du principe d’universalité de l’internet. Les travaux menés dans un groupe de travail spécialisé font ressortir l’importance de la question du droit ; la référence aux Droits de l’Homme figurant dans la norme doit évidemment appeler à aller plus loin avec des adaptations législatives et règlementaires, et aussi des efforts à conduire du côté du monde judiciaire (sensibilisation, formation, renforcement des capacités).

Les interventions : quelques éléments ayant retenu l’attention

Un rappel quant aux définitions :

Bien distinguer ce qui est de l’ordre de la loi, et ce qui se rapporte aux codes de conduite (soft law) ainsi qu’à l’éthique. L’éthique vise les attitudes à adopter dans les actions au quotidien avec une correcte appréciation de ce qui bon et juste. Pour s’en tenir toujours à la notion d’éthique, les critères retenus par le Comité international de la bioéthique peuvent très bien s’appliquer aux questions soulevées par l’IA : la dignité, l’autonomie, la justice sociale, le bien et le fait de ne pas causer de dommage. Bien d’autres dimensions peuvent être considérées avec une plus ou moins grande attention selon les sujets couverts par les applicatifs : par exemple la Paix, le dialogue et la compréhension (comme ce qui a trait au dialogue Homme-Machine dans le cas de l’IA)

L’importance à accorder au Droit, la conformité aux règles ( « Rule of Law »)

Les Droits de l’homme (DH) sont retenus comme un paramètre pertinent à examiner avec attention, notamment pour ce qui touche à la liberté avec la question de la liberté d’expression et du choix conscient, respectueux du libre arbitre : à plusieurs reprise a été évoquée la nécessité d’un consentement éclairé ; autre sujet touchant les DH : la  « vie privée » (privacy) : ce n’est pas un vague concept ; avec l’IA, il s’agit de la protéger contre les dangers d’intrusion des systèmes d’IA par une exploitation abusive des données personnelles traitées à l’insu de leurs « propriétaires ». Il faut ainsi pouvoir assurer la confiance des utilisateurs dans les applications d’intelligence artificielle qu’ils mobilisent.

S’agissant des régulations au niveau national, il y a bien un appel lancé pour rendre la norme applicable au niveau des Etats ; cette phase de mise en œuvre est engagée, certains pays l’ont déjà bien initiée (sensibilisation, formation, aménagements juridiques) mais on est loin du compte, y compris au niveau d’États importants. Il y a de grandes disparités.

Les risques : il faut bien juger ce qui peut causer un dommage (au niveau individuel -les personnes -ou collectif – risques pour la démocratie ou pour le tissu social) ; deux risques importants ont été cités : le risque d’une totale homogénéisation (utilisation d’un même langage, absence de prise en compte de spécificités culturelles) et le risque d’une concentration des éditeurs/promoteurs de systèmes d’IA .

La gouvernance : ont été développées des idées qui sont d’application générale, avec ici toutefois une insistance particulière sur les aspects « sécurité », « robustesse » et « contrôlabilité »                                                                                                        

La question de « l’humain » est fréquemment relevée comme un élément central dans toute analyse éthique, et de ce point de vue, sont soulignées une série d’exigences : avoir des applications « humancentric » (centrée sur l’humain), nécessité de supervision humaine de tout système ayant recours à l’IA , préoccupation à avoir pour le bien-être des personnes, le respect de leur identité et de leur intégrité, s’assurer des impacts et, en particulier, veiller à ce que les applications d’IA n’aient pas pour effet d’altérer les comportements jusqu’à leur faire perdre leur caractère humain. Pour reprendre un propos exprimé, la priorité doit être accordée à la personne pas aux systèmes.

-d’une façon générale, bien comprendre ce que peuvent livrer les systèmes ou application d’IA, ce qui suppose d’avoir toutes les informations voulues, encore faut-il être apte à comprendre, ce qui n’est pas toujours assuré, loin s’en faut, se pose alors la question de l’alphabétisation numérique (litteracy) 

-sur un plan plus technique, un intervenant a parlé du bienfait du « local » et plus exactement d’un ancrage des développeurs de systèmes dans des lieux propices pour élaborer de bons systèmes d’IA, à savoir les villes ; ici, sont vantés les mérites de la proximité pour favoriser les nécessaires échanges à conduire préalablement à l’élaboration d’applications informatiques. En particulier, à côté des discussions entre experts doit être reconnue la valeur des dialogues citoyens plus faciles à organiser au niveau communal ou local. Ce localisme valable d’un point de vue général, a encore plus de prix lorsqu’on vise à faire s’approprier des systèmes numériques (dont l’IA ) par des communautés autochtones.

-au-delà des populations autochtones, il y a lieu d’affiner les analyses (analyses préalables à l’élaboration d’un système d’IA et analyse critique de systèmes existants) pour considérer les spécificités de certaines personnes fragiles, vulnérables : jeunes, personnes âgées ou handicapées, marginalisées.

-beaucoup d’observations ont porté sur des sujets très communément évoqués à l’Unesco et qui ne sont pas à proprement parler une marque distinctive de l’IA comme par exemple les questions touchant aux inégalités, à la connectivité, au développement ou les appels pour encourager la poursuite de travaux de recherche sur ces sujets touchant l’IA et la société (le social, le sociétal).

Conclusion

Mme Gordon, en conclusion, a bien repris les idées essentielles émises lors de cet échange, elle a invité à poursuivre les réflexions en rapport avec l’IA et, à explorer plus encore ce qui dans les évolutions provoquées par cette nouvelle technologie peut amener à repenser notre « contrat social », et, à un autre niveau, à nous interroger sur les dimensions sociétales, lesquelles touchent finalement à notre Humanité. Il faut ainsi, nous dit-elle, se mobiliser tous ensemble (au niveau global ou mondial), avec le concours des chercheurs et avec des financements suffisants pour pouvoir le faire.

Quelques autres observations 

La discussion a été nourrie, et les intervenants comme les auditeurs (via le chat) ont dit l’intérêt de tels échanges qui gagneront à être poursuivis.

Forcément un tel sujet ne saurait être épuisé en trois heures, durée de ce webinaire ;Comme cela a été suggéré, il y a sans doute beaucoup à explorer du côté de la mise en œuvre : bien souvent, on en est resté à des idées générales en se référant aux grands concepts figurant dans lanorme elle-même. On voit aussi que dans une large mesure les notions auxquelles on a fait très souvent allusion renvoient à des principes et des valeurs qui sont essentiels pour l’Unesco (équité, legenre, l’inclusion, les biais, les inégalités, les discriminations), mais s’il n’y a rien de nouveau avec ces notions, c’est au niveau du terrain qu’il faudrait mieux comprendre comment ces notions sont ou non intégrées dans les applications utilisantl’IA. Sur ce point, peu de choses ont été dites. Il y aurait manifestement à voir plus avant des aspects concrets, avec par exemple des témoignages d’utilisateurs, mais aussi sans doute de porteurs de projets qui ont réussi. On pourra regretter à cet égard l’absence à la tribune de représentants du monde des entreprises utilisatrices ou productrices d’IA. Peut- être aurait-on eu une perception plus précise ou incisive des réalités de l’IA aussi bien en termes de performances que de risques. Il serait en tout cas intéressant d’entendre certains avis de ceux qui « font et vivent l’IA » au regard de la multitude des exigences qui se font jour comme celles figurant dans cette normes « éthique de l’IA » qui constitue, à n’en pas douter une contribution importante pour mieux nous éclairer sur les transformations assez radicales que peuvent générer ces innovations technologiques.