Éthique de l’Intelligence Artificielle (IA), Intelligence Artificielle et Éducation, Consensus de Pékin, l’UNESCO comme beaucoup d’autres institutions internationales est pleinement engagée sur un domaine majeur, qui promet beaucoup mais qui comporte aussi de grands risques. L’important dans les transformations qui vont s’opérer avec le recours grandissant à l’IA est de préserver l’Humain. L’UNESCO soutient résolument une approche humaniste de l’IA.
Les Echanges en session plénière et en Commission PX (relations extérieures)
La Directrice générale, comme beaucoup de délégués lors des débats en séance plénière, intègre maintenant comme une sorte de passage obligé les nombreux sujets qui se rattachent à l’IA en faisant ressortir l’essor quasiment irrésistible de cette technique qui touche tous les secteurs couverts par l’UNESCO. Beaucoup événements sont organisés dans de nombreux pays, comme l’ont rappelé beaucoup d’intervenants, des stratégies nationales commencent d’être élaborées, et les grandes Institutions internationales sont nombreuses à travailler le sujet ainsi que le montre le rapport produit par le Secrétariat à la demande du Conseil Exécutif et soumis à son appréciation lors de la 207ème session.
Lors de l’examen en Commission du rapport, mais aussi au fil du débat en plénière en lien avec la proposition de lancement d’un chantier sur l’Éthique de l’IA, un certain nombre d’observations ont été formulées :
- Le rapport produit a été bien accueilli mais certains auraient aimé voir plus approfondie l’analyse des travaux conduits par les autres agences onusiennes.
- Il a été fait observer que beaucoup des réflexions ou autres initiatives prises par les organes publics supranationaux sont européennes (Conseil de l’Europe et Union Européenne notamment), et que si telle était bien la situation actuelle, il conviendrait de ne pas verser dans des approches trop euro-centrées.
- L’Education, qui est un objectif clé de l’agenda 2030, va être fortement impactée par l’IA, et, dans ces conditions, on se félicite des initiatives prises ou que s’apprête à prendre le département Education en rapport avec l’IA avec des approches prospectives, intersectorielles, collaboratives et inclusives.
- Compte tenu des multiples dimensions que recouvre ce thème de l’IA, à d’assez nombreuses reprises, l’UNESCO est invitée à bien rester centrée sur les domaines de compétence figurant dans son mandat, en s’alignant aussi sur les ODD fixés pour 2030.
- La question Ethique est unanimement considérée comme méritant d’être analysée de façon approfondie pour que soit proposée une norme internationale, car il y a là un vide à combler pour parer aux risques que génère l’IA. La proposition d’engager une réflexion en vue d’atteindre cet objectif est donc très favorablement reçue. Des quelques observations formulées quant au fond sur ce thème, on retiendra qu’elles portent toutes sur les risques d’inégalité ou de discrimination. Il y a aussi certaines considérations relatives à l’Humain ou l’Humanité dans son rapport à la Machine mais elles ne sont données que par allusion. Au demeurant, il ne s’agissait ici que d’évoquer le sujet pour adopter une décision à ce propos ; le texte de la dite-décision a été finalement adopté après quelques amendements portant notamment sur les inégalités mais aussi sur les questions de « vie privée » et de « transfert de technologie ».
Echange de vue sur l’IA en général et l’IA dans le domaine de l’Education (organisé par la délégation des Pays-Bas)
Une heure trente d’échanges introduits par la Directrice générale. Participaient à cette présentation l’Assistant Directeur général du secteur Sciences Humaines et Sociales (Nada Al–Nashif ), Pierre-Paul Verbeeke (Professeur de Philosophie des Technologie à l’ Université Twente et nouveau Président de la COMEST (Commission Mondiale pour l’Ethique des Sciences et des Technologies), et Mme Inge Molenaar (Professeur-Chercheur en Ethique et Technologie de l’Université Radboud de Nimègue).
Introduction de la Directrice générale
Mme Audray Azoulay a brièvement mais très clairement introduit le sujet, pour justifier à quel point l’UNESCO se devait d’entrer pleinement sur les questions que posent l’IA dans tous les domaines de ses compétences. Cette révolution technologique, comme tous progrès, suscite l’inquiétude mais cette fois-ci, nous dit la Directrice générale, il y a une radicalité disruptive qui appelle une particulière attention Notamment sous l’angle éthique. C’est un vaste chantier, qui devra associer de nombreux acteurs à mobiliser de multiples façons, comme par exemple lors de table ronde pareille à celle du présent panel. L’UNESCO est maintenant pleinement engagée, elle est « en chemin » pour apporter une contribution qui devrait permettre une meilleure appropriation de l’IA au travers d’une approche humaniste.
Les présentations qui ont suivies, ainsi que les questions posées par un auditoire nombreux – 200 personnes (représentants des délégations et membres du personnel du siège essentiellement) – peuvent assez bien être mises en rapport avec ce qu’il est convenu d’appeler « Le Consensus de Pékin ». Cette déclaration, issue d’un colloque tenu en mai dernier, énonce en effet toute une série de constats, d’avis et de recommandations à propos de l’IA et l’Education, cette IA qui nous fait « entrer dans une nouvelle ère », « ce qui ne peut laisser sans agir ». Un slogan pour le moins mobilisateur figure en sous-titre de la déclaration : « Lead the Leap »… une façon accrocheuse d’inviter à s’emparer du sujet et de la maîtriser.
Quelques idées particulièrement mises en évidence : présentations de PP. Verbeeke, et de I. Molenaar
D’abord quelques idées générales
Rappel des grands changements qui ont affectés l’humanité depuis des milliers d’années avec une accélération à partir de l’ère industrielle : développement des services, révolution du traitement de l’information, l’interconnexion généralisée et maintenant l’IA qui est en passe de s’étendre à grande vitesse, partout et dans tous les domaines.
La conjonction de systèmes de traitement des données de plus en plus performants (les big data) avec des algorithmes de plus en plus sophistiqués va bouleverser les usages, intégrer de plus en plus ce que sont les désirs ou les préférences des individus. Il y a là à la fois tout un potentiel à exploiter mais aussi de grands risques lorsque sont considérés les possibles effets d’emprise ou les relations de domination ou de dépendance qui peuvent découler de ces systèmes automatisés.
Dans cet univers radicalement nouveau, il est indispensable de penser au-delà des techniques et de leur mode de fonctionnement. Ici, il ne faut jamais perdre de vue des dimensions essentielles comme ce qui a trait à la Paix, la Justice, la Solidarité, l’Egalité, ces valeurs qui sont au cœur du mandat de l’UNESCO et qui peuvent être mises à mal par l’IA si son développement est laissé libre de toutes contraintes et exploité par quelques Acteurs dominants et/ou insidieux, promoteurs de leurs intérêts particuliers (le Profit tiré de positions mono ou oligopolistiques, le Pouvoir politique etc.). Il faut, dans ces conditions, vérifier que toutes les innovations qu’apportent l’IA ne mettent pas en péril le Bien Commun, mais aussi l’Homme et son avenir d’Etre Humain.
Le danger qui nous guette avec la multiplication des dispositifs ayant recours à l’IA, c’est de négliger toutes ces valeurs pourtant essentielles, voire de les oublier complètement sous l’effet d’illusions que peuvent entraîner cette technologie à haute performance. Il faut rester vigilant et ne pas oublier l’Homme (nb : le « Consensus de Pékin » ne manque pas de le rappeler : l’IA doit rester « au service de » l’homme), ne pas en avoir peur ni agiter des idées anxiogènes – comme l’annonce d’un effondrement du nombre d’emplois (certains parlent d’une baisse de 40%) – il y a un potentiel à exploiter avec de nouvelles expertises et le développement d’emplois à valeur ajoutée, le tout est d’aborder tous les aspects de l’IA avec discernement.
Cela suppose que l’on sache (et puisse) exercer son esprit critique et que l’on se livre à des examens de conscience lorsque l’on s’engage dans des processus reposant sur l’IA et présentés comme facteurs de progrès, et cela tout particulièrement dans le domaine de l’Education qui va être considérablement impactée par ce nouveau mode de fonctionnement.
Des considérations se rapportant plus particulièrement au domaine de l’Education
Trois sujets émergent comme appelant à concentrer l’attention :
- L’Enseignement et l’Apprentissage, le Professeur et l’Élève
L’IA pourra être utilisée individuellement (autonomie de l’élève dans son travail, son autoévaluation) et collectivement (les cours, les classes).
L’important est de bien traiter les interactions (feedback), entre l’élève et le système, entre l’élève et le professeur avec une idée essentielle : le Professeur doit rester « le maître », avec une bonne qualité de la relation interpersonnelle à préserver.
Il faut absolument se convaincre de la valeur de ces techniques dès lors qu’elles fonctionnent comme un appui et en complément de ce qu’apporte le professeur qui doit jouer toujours tout son rôle : encore une fois, il faut bien garder à l’humain toute sa place avec ses traits distinctifs, sa liberté, et aussi sa protection, ce qui est à voir avec la question des Droits de l’Homme et de la dignité des personnes.
- L’IA : un Savoir Faire et des Compétences à acquérir
Le recours à l’IA nécessite de comprendre le fonctionnement des outils qui empruntent à ces techniques, ce qui appelle à changer de méthodes, à bien appréhender les programmes d’enseignement qui sont forcément impactés.
Au demeurant ces nouvelles approches intégrées dans les systèmes ne doivent pas être définies par les seuls experts-techniciens : une bonne IA suppose qu’en amont il y ait des réflexions préalables associant tous les acteurs des systèmes éducatifs.
- L’IA et l’Ethique
Cette question est de toute première importance (voir ci-dessus) : il faut en quelque sorte embarquer ce sujet dès la conception des applications (on parle de « Ethic by design »).
On doit se focaliser sur les Implications et Impacts de ces innovations supposément intelligentes, et s’interroger sur les risques qui peuvent émerger, risques pour les Valeurs et au regard de Principes fondamentaux qui doivent continuer de sous tendre les nouveaux systèmes éducatifs qui vont se trouver de plus en plus façonnés par l’IA.
C’est là que doit être posée le plus clairement possible la question des limites ou des garde-fous qui ne doivent pas être traités à la légère puisqu’il s’agit aussi bien de s’assurer du respect de la vie personnelle, que de la confidentialité, la dignité humaine etc.
Mais, avant tout, il importe de savoir ce que l’on veut, et de fixer des règles permettant de savoir jusqu’où l’on accepte que le système aille « traquer » ou « tracer » les élèves, et comment il traitera de la « sélection », du « contrôle » et de « l’évaluation », selon « quels critères », avec quelle assurance de « justice » et quel risque de « biais ».
Au final, on doit pouvoir porter une appréciation sur les « finalités », donner les éléments précis que l’on entend voir pris en compte par l’outil qu’est et doit rester l’IA.
Un dernier sujet est important pour ce qui est l’IA dans les systèmes éducatifs : la question des Sciences de l’Ingénieur, il est certain qu’en ce domaine l’impact de l’IA est considérable puisque ce seront les ingénieurs qui seront appelés à mettre en place l’IA dans tous leurs domaines spécialisés.
Quelques autres idées importantes à mettre en évidence (idées souvent reprises dans le « Consensus de Pékin »)
- Voir (surtout dans le domaine éducatif) l’IA comme une Aide.
- Etre clair sur quelques données conceptuelles :
– L’IA, ce n’est pas l’IH (Intelligence Humaine) ;
– L’IA, c’est un ensemble de fonction opérationnelles ;
– L’IA est, devrait être neutre, mais les risques de ne pas l’être sont non négligeables (risques pour la personne, risques pour la Société) ;
– Du point précédent, doit découler une triple exigence : contrôle et maîtrise des processus, attention toute particulière aux données (la collecte, leur traitement) et, en dernier lieu, toujours conserver l’Humain au centre des préoccupations.
Les critères d’analyse pour apprécier la qualité d’un système régi partiellement ou totalement par l’IA :
- La grille d’analyse proposée pour passer les dispositifs d’IA au crible d’une appréciation critique est très classique, et ne diffère pas beaucoup de celle que l’on retrouve pour juger de tout système de gouvernance.
- Il s’agit ainsi de porter une appréciation sur les critères suivants :
– La connaissance et compréhension des systèmes (les données, les algorithmes ,l’utilisation), en anglais la « litteracy » ;
– La Transparence ;
– Les Responsabilités : identification des finalités, des risques et de la façon de les traiter ;
– La Redevabilité.
Questions/Réponses
On se contentera de rappeler succinctement les questions ou observations formulées par l’auditoire, et de les compléter par des précisions apportées.
- Le traitement et la gouvernance des données, comment fait-on ?
On associe tous les acteurs, on démonte les processus de traitement, on s’efforce de pouvoir comparer (« les best practices »), on s’assure du respect du principe d’égalité (« level playing field »).
- Quelle est la meilleure façon d’organiser le dialogue autour de ces questions ?
Exercer une pensée critique, bien tenir compte des contextes, et surtout avoir une vision commune.
- Comment faire face à une course de vitesse entre les innovateurs et les régulateurs, ces derniers apparaissant plutôt toujours en retrait ou en retard ?
Il faut mettre fin à cet écart ou à ce désavantage « compétitif » dont paraissent souffrir les autorités. Les gouvernements doivent pleinement s’emparer du sujet. Il doit y avoir comme une confrontation avec le Privé, non pour s’opposer frontalement, mais pour déboucher sur des résultats positifs.
- Comment se traitent les questions de diversité culturelle ?
Ici sont à faire valoir les valeurs des Droits de l’Homme qui doivent permettre de promouvoir des systèmes ouverts, diversifiés ou chacun pourra se retrouver avec ses spécificités culturelles.
- Quel est le plus grand problème que laisse entrevoir cette montée irrésistible de l’IA ?
Clairement la menace pour la démocratie, et les possibles atteintes aux Droits de l’Homme ?
- Où fixeriez vous les limites de l’IA ?
Elles sont à voir surtout du côté des inégalités : les systèmes atteignent leurs limites s’ils finissent par aboutir à plus de sélection, d’exclusion, de discrimination, de confiscation au profit de groupes privilégiés.
- Comment voyez-vous les orientations et efforts de l’UNESCO en matière d’IA ?
Il y a un indéniable besoin de normes et standards utilisateurs, essentiellement dans le domaine éthique, l’UNESCO a toute sa place pour combler ce vide.
L’UNESCO s’est pleinement engagée sur cette voie, elle a un savoir faire à la fois technique (domaine du secteur Communication Information qui par exemple a promu pour les TIC les principes que recouvre l’acronyme ROAM) et éthique.
Le chantier sur lequel l’UNESCO est engagé avec l’IA est vaste, il va appeler de nombreuses initiatives qui vont aller s’amplifiant dans le prolongement des événements qui ont déjà eu lieu au siège (semaine de l’IA) ou au niveau des Etats membres (ex : la Chine, le « Consensus de Pékin », un Forum des Etats africains au Maroc etc). Tous les acteurs concernés seront associés, notamment les Universités et le monde de la Recherche. L’ambition est d’avoir une vue élargie des problématiques, en aucun cas s’enfermer dans une Pensée restreinte.
Dores et déjà le dialogue est ouvert, et sur Twitter le mot clé « #UnescoAI » invite aux échanges.
Deux commentaires en guise de conclusion
L’échange aura été très riche d’idées inspirantes, mais comme telles, elles n’ont fait qu’évoquer des thèmes qui mériteront d’être approfondis comme l’UNESCO, soutenue par les États membres, se propose de le faire. Une des grandes difficultés qu’il y aura lieu de surmonter tiendra sans doute à la définition de ce qu’est l’Homme et ce sens de l’humain auquel beaucoup de personnes font allusion, définition de l’homme et de son intelligence dans toutes ses dimensions.
Une dernière remarque en conclusion, simple observation : les échanges de vue n’ont pas fait ressortir les questions touchant aux facteurs cognitifs et aux neurosciences. Il y a sans doute ici beaucoup à dire en rapport avec l’IA. Les débats à venir nous en diront certainement quelque chose d’utile aux réflexions qui sont maintenant bien engagées.