Quelles compétences autres que techniques inclure, développer dans l’enseignement de la littératie numérique ?

Conférence d'I.Chaperon, Pdte du CCIC, au colloque organisé par l'UNAEC au Conseil de l'Europe le 27 mai 2024

Le CCIC, Centre Catholique International de Coopération avec l’UNESCO, collectif d’ONG internationales, partenaire de l’UNESCO, rassemble à Paris les représentants d’ONG d’inspiration catholique en lien avec l’UNESCO, comme le fait ici la plateforme de Strasbourg auprès du Conseil de l’Europe et d’autres groupes à Genève, New-York,  Rome, pour y porter le témoignage et la pensée des chrétiens en action, au service de tous à travers le monde. Le CCIC se fait  ainsi l’écho de la pensée et l’expérience de ses membres à travers 170 pays, auprès de l’UNESCO.

Les ONG du CCIC travaillent actuellement à un projet de recommandation et propositions éducatives concrètes : « Comment éduquer à un usage responsable des IA[1] ? ». Ce projet  propose une approche de la mise en œuvre de la « recommandation de l’UNESCO[2] sur l’éthique de l’intelligence artificielle », adoptée par acclamation par les 193 états membres de l’UNESCO fin  2021. C’était le premier instrument normatif international  sur l’éthique de l’IA, et il a coulé beaucoup d’eau sous les ponts depuis, en particulier depuis cet événement disruptif fin novembre 2022.

Réflexion éthique induite par la rupture anthropologique

Disruptif, du latin : rompre, qualifie bien le fait qu’en étant livrée au grand public, du jour au lendemain, de façon gratuite, sans nécessité d’équipement spécifique, et avec une grande facilité d’utilisation, la publication par Open AI, d’un outil d’IA générative généraliste, venait rompre avec l’évolution, certes rapide, des technologies mues par l’IA. En produisant des textes dont on ne pouvait à prime abord discerner s’ils étaient issus d’une machine ou d’un humain, ChatGPT provoquait une véritable onde de choc qui dépassait largement le monde scientifique. Toute personne un peu curieuse se mit à le tester, lui posant 1000 sortes de questions, à toutes sortes de fins, et il n’échappa à personne qu’un bouleversement anthropologique s’accentuait, soulevant de nombreuses questions éthiques.

Génératives ou non, les IA évoluent à un rythme effréné, pour le meilleur en risquant le pire d’où ce deuxième mot de dystopie. Ce fantasme récurrent de voir la machine produite dominer l’être humain, de Pygmalion à nos jours, voire même l’asservir, revient hanter nos esprits. Il y a bien là matière à réflexion, et à réflexion éthique.

Le sujet étant immensément vaste, nous nous sommes focalisés sur le Domaine Stratégique numéro 8 de cette recommandation UNESCO, celui de l’éducation puisque notre raison d’être est bien de contribuer aux travaux de cette agence des Nations Unies.

 L’éducation est un secteur majeur de l’UNESCO qui a la responsabilité au sein des Nations Unies de l’Objectif de Développement Durable numéro 4, et c’est aussi le domaine de compétence essentiel de plusieurs de nos ONG : l’OIEC, la FIUC, l’UMEC, l’OMAEC[3], pour ne citer que quelques-unes, et l’éducation correspond à des enjeux majeurs pour beaucoup d’autres.

Quelles compétences autres que techniques inclure et développer  dans l’enseignement de la littératie numérique ?

Aujourd’hui, je n’aborderai qu’un tout petit aspect de cette démarche, une sorte de teaser du projet de Forum en trois conférences[4] qui auront lieu en novembre 2024 à Paris en mode hybride.

Notre propos n’est pas celui de la gouvernance ni la régulation de l’IA, très largement abordés dans une multitude d’ instances nationales et internationales.

Nous nous intéressons à la personne humaine, en tant qu’utilisatrice des outils de l’IA, au questionnement éthique lié à la personne, en particulier aux enfants et aux jeunes, mais pas seulement. Le sujet est donc d’identifier

Quelles compétences autres que techniques inclure et développer dans l’enseignement de la littératie numérique (capacité d’un individu à participer à une société qui utilise des technologies numériques dans tous les domaines d’activité)

Pour cela je souhaite attirer votre attention sur plusieurs rouages, tant propres à l’IA que propres à l’être humain

Rouages de l’être humain ?

L’Anthropomorphisme

Cette question ouvre un premier axe de vigilance : je suis tentée de parler de rouages, en évoquant le cerveau humain, de mécanismes du cerveau humain. Rouages, mécanismes, n’est-ce pas assimiler le cerveau, la pensée humaine à une machine ?

A force d’être entourés de machines- et ce n’est pas récent-, nous avons pris le pli de nous assimiler à des machines, et les machines à nous-mêmes, et d’un point de vue anthropologique, ce n’est pas rien, ce n’est pas neutre. Cette tendance est entretenue de façon très accélérée par le phénomène d’anthropomorphisme.

Anthropomorphisme : Ce nom barbare décrit l’assimilation, l’équivalence que nous projetons entre l’être humain (anthropos) et des objets, des outils, et notamment  ces objets boostés à l’IA que sont les robots, les ordinateurs, PC, enceintes connectées, portables et produits technologiques de plus en plus sophistiqués. La manifestation la plus évidente de cet anthropomorphisme en ce qui nous concerne est le nom d’ «intelligence » donné à l’IA.

L‘IA – que j’essaie d’éviter de nommer intelligence artificielle- est un produit de l’intelligence humaine, un outil imaginé par des personnes en chair et en os pour les assister, les aider à résoudre certains problèmes qui les dépassent, en augmenter les capacités.

Dans la façon dont nous élevons nos enfants, dont nous parlons avec nos proches , à l’école comme dans tous les aspects de la vie courante, prendre conscience et le manifester dans notre langage, que les choses sont des choses et les personnes des personnes, même si cela parait enfoncer une porte ouverte, est un premier point de vigilance. Exercez-vous, et vous verrez que ce n’est pas évident. On dit que l’ordinateur « parle, il écoute, il lit, il comprend vos questions »… On attend même qu’il détecte vos émotions, on voudrait lui prêter une sensibilité…. on glisse là un peu vite vers l’anticipation, entretenue par les films et la littérature fantastique très populaires.

Cet anthropomorphisme commence à influencer les enfants dès le plus jeune âge : par exemple, j’ai vu des familles choisir un nom pour leur nouveau robot aspirateur : leur choix s’est arrêté sur Nestor, nom du majordome du château de Moulinsart dans les aventures de Tintin, et ils s’amusent à le traiter comme leur valet. On s’habitue rapidement à «personnifier » inconsciemment des objets, des outils. Certains sont extraordinairement bluffants, en particulier ceux auxquels  les IA génératives permettent de produire l’illusion d’une pensée humaine.

Une conséquence inévitable est qu’on en arrive à considérer l’outil comme bien « supérieur » par ses performances, à la personne, voire lui prêter une attitude de domination. La personne devient une bien piètre machine, on en vient à se sentir « nul ». De plus, on en devient esclave, on en vient rapidement à « Liker sa servitude[5] ». Chacun de ce point de vue est responsable de prendre soin de sa liberté. L’effet insidieux de l’anthropomorphisme en matière d’IA sur la conscience qu’a la personne  d’elle-même, ce n’est pas rien , ce n’est pas sans conséquence.

Mécanismes propres à l’IA

Je reviens aux mécanismes qu’il me parait important de comprendre, en commençant par les rouages de certaines IA , le fonctionnement du machine learning , l’apprentissage automatique avec toutes ses variantes, qui sous-tend de plus en plus de technologies d’IA. Là encore, attention, apprentissage, le mot prête à confusion. Cette phase dite d’apprentissage fait partie de la fabrication du modèle, bien en amont de son utilisation.

Certains problèmes se révèlent impossibles à résoudre par une programmation de type analytique. C’est le cas de la production du langage, et de la traduction. Les LLM, par exemple, (large language models), utilisent une approche très pragmatique : l’imitation. De même qu’un tout jeune enfant apprend à parler en imitant ce qu’il entend, c’est en traitant d’innombrables données : des textes, ou des enregistrements de voix, que l’outil va « apprendre », va se construire. La grande différence avec l’enfant qui apprend à parler (et à comprendre), est que ce dernier apprend à partir de très peu d’exemples qu’il reproduit, alors qu’il faut des myriades de données pour entrainer un modèle de langage.  C’était impossible il y a seulement quelques années, mais la miniaturisation et les performances des microprocesseurs font changer d’échelle les capacités de stockage et la rapidité des ordinateurs. Une étude récente montre que leurs performances doublent tous les quatre mois, croissance exponentielle qui était déjà de doubler tous les 9 mois il y a quelques années, tous les deux ans au début de la loi de Moore.

Ces données passent ensuite dans un réseau de neurones artificiels (encore un anthropomorphisme), formé de plusieurs couches. Là interviennent des mathématiciens : il s’agit d’ajuster les 10 puissance N coefficients d’une fonction de 10 puissance N variables se façon à minimiser cette fonction dite fonction de coût, à chaque nouvelle donnée d’entrainement. En 2018, GPT1 utilisait une fonction de 115 millions de coefficients, en gros 10 puissance 8, GPT2 en 2019, 10 fois plus, GPT3 en 2020 : 100  fois plus que l’année précédente, GPT4 en 2023, 100 000 fois plus que GPT3, soit 10 puissance 14[6]. Je n’entre pas plus dans les détails, pourtant révélateurs.

Ce qui importe pour mon propos est de mettre en évidence la quantité de données nécessaires à de tels calculs, essentiels pour l’élaboration du modèle. Et parmi les conséquences, la gourmandise, la voracité, l’impérieuse nécessité pour le concepteur d’amasser des données.

Je relève au passage sans avoir le temps de m’y arrêter deux enjeux éthiques : la qualité des données souvent biaisées, et la question de la vérité scientifique que pose ce type de modèle..

L’addiction- La liberté

La nécessité pour le fournisseur d’IA d’accéder à toujours plus de données le conduit à assortir ses produits d’une composante addictive, de la même façon que les cigarettiers ont toujours mêlé des produits addictifs au tabac des cigarettes.

En effet, plus l’utilisateur d’internet reste longtemps connecté, plus il livre à son insu et de façon gratuite, des données.

Ce n’est pas sans conséquences pour l’utilisateur. Prenons l’exemple d’un jeune qui a trouvé la video qu’il cherchait pour lui expliquer les réseaux neuronaux,  l’application lui en propose aussitôt 10 autres en lien avec ses goûts et son historique (certaines sont sponsorisées), c’est bien tentant, et il finit par perdre un temps fou à se laisser bercer par des images, au détriment d’autres activités plus épanouissantes. Et tout cela gratuitement. C’est ce que j’appelle l’effet « open bar » ou buffet à volonté, avec les effets délétères que l’on connait.

En bref, il en ressort au moins deux autres points de vigilance : comprendre le mantra suivant« si c’est gratuit, c’est toi le produit », et prendre conscience du côté insidieusement addictif de certains outils mus par l’IA.

« Mécanismes » propres au cerveau humain

 le « circuit » de la curiosité

 Parmi beaucoup d’autres, ce sont deux « mécanismes » du cerveau humain sur lesquels je choisis d’attirer votre attention, et qui doivent attirer notre vigilance. Ils nous ont été évoqués par le Professeur Chneiweiss lors du dernier Forum du CCIC sous le haut patronage de l’UNESCO : « Métamorphose du monde, jusqu’où l’Homme peut-il changer l’Humain ? Quelle boussole pour l’éducation ? [7]». Grâce aux progrès très récents des neuro-technologies, que permettent en particulier les progrès de l’IA, on a pu identifier dans le cerveau deux circuits de la récompense. L’un est basé sur notre expérience du passé, le récit de la madeleine de Proust l’illustre bien. Le second est celui de la curiosité, qui nous pousse vers le nouveau, la créativité. Les IA se basent sur le passé, des myriades de données (bases de données, réseaux sociaux, etc), et celles que nous avons laissées sur internet reflétant notre expérience passée : on l’a déjà évoqué avec l’exemple des suggestions de Youtube (des études ont montré que 70 pour cent des vues ne résultaient pas d’une requête mais d’un nudge, d’une proposition ciblée). Il en résulte que l’utilisateur s’enferme dans un entre-soi, dans une bulle d’informations qui vont toutes dans le même sens. C’est accessoirement une caisse de résonnance pour les fake news et autres discours complotistes qui se propagent six fois plus sur les réseaux sociaux que des informations factuelles[8]. A l’inverse, l’autre circuit de la récompense du cerveau est celui de la  curiosité,  qui fait aller de l’avant, stimule la créativité, or celui-ci échappe à l’ IA, et s’il n’est pas activé, éduqué, stimulé, entretenu, va s’atrophier. Quelle perte pour l’humanité…et peut-être dès l’enfance……D’où la nécessité de veiller à proposer des activités créatives, susciter la curiosité, l’expérimentation, et limiter le temps passé sur Internet.

Le cerveau se construit

Un autre point de vigilance résultant des récentes neurosciences, des « mécanismes » du cerveau, est de prendre en considération le fait que le cerveau d’un enfant n’est pas une miniature du cerveau adulte : il est en phase de construction progressive, ce n’est pas sans conséquences dans le domaine de l’éducation[9].

J’aimerais encore évoquer le vaste champ des manipulations mentales, des biais cognitifs[10], et bien d’autres aspects fondamentaux…Le rapport au temps, à la vérité, la liberté…

Finalement, ce qui est en jeu pour un usage éthique des IA, c’est la compréhension qu’a l’être humain de ce qu’il est, et cela ne peut s’acquérir que par l’éveil de la conscience. C’est ce que nous avons développé en proposant lors du Forum que j’ai déjà évoqué, une culture de l’éducation : « Apprendre à être soi pour être au monde, avec, par et pour les autres…. »

Je laisse le sujet tout à fait ouvert .

Si j’ai réussi à faire passer le fait qu’il nous faut intégrer des soft skills dans l’éducation aux IA, sensibiliser les éducateurs et usagers d’IA à quelques points de vigilance, et si j’ai suscité en vous l’envie d’en co-créer les modalités avec de vraies personnes, j’aurai accompli la modeste mission qui m’a amenée à partager avec vous.

Je vous remercie de votre attention.

Isabelle Chaperon, Présidente du CCIC

Conseil de l’Europe, Strasbourg, le 27 mai 2024


[1] Nous avons préféré dans le titre le terme de responsable à celui d’éthique, il s’agit de l’éthique de responsabilité, qui se préoccupe des conséquences de nos actes et nos choix

[2] Recommandation sur l’éthique de l’intelligence artificielle – UNESCO Bibliothèque Numérique

[3]  OIEC : Office International de l’Enseignement Catholique ; FIUC : Fédération Internationale des Universités Catholiques ; UMEC : Union Mondiale des Enseignants Catholiques ; OMAEC : Organisation Mondiale des Anciens Elèves de l’Enseignement Catholique

[4] Voir le site ccic-unesco.org

[5] « Liker sa servitude » est le titre riche de sens d’un ouvrage de Louis de Diesbach, ed. Fyp, 2024

[6] Orientations pour l’intelligence artificielle générative dans l’éducation et la recherche – UNESCO Bibliothèque Numérique

[7] Actes publiés aux éditions Nouvelle Cité

« Métamorphose du Monde, Jusqu’où l’homme peut-il changer l’Humain? Quelle Boussole pour l’éducation » le E-Book maintenant disponible ici – CCIC (ccic-unesco.org)

[8] Laurent Cordonier : Séminaire Innovation et Société, CEF le 24 Mars 2023- « Réseaux sociaux : qu’ont-ils transformé dans nos sociétés ? »

Réseaux sociaux et désinformation – Église catholique en France

[9] voir Hervé Chneiweiss, Notre Cerveau, ed. l’Iconoclaste, 2019

[10] Voir Gérald Bronner : Déchéance de rationalité , ed. Grasset ; La démocratie des crédules, puf, 2013, et plus récemment : Apocalypse cognitive, puf, 2021 ; L’empire de l’erreur: Biais cognitifs et société, ed. Quadrige, 2023