Invitée à intervenir à la célébration de l’anniversaire de la JECI, la présidente du CCIC souhaite les sensibiliser à un usage éthique et responsable des technologies de l’IA

 Jeunes étudiants catholiques, aumôniers, animateurs, anciens, de la Jeunesse Etudiante Catholique Internationale,    Vous me voyez très heureuse de votre invitation à participer à cette conversation. Je préside le CCIC, le Centre Catholique International de Coopération avec l’Unesco. C’est une plate-forme, un forum, une famille, qui rassemble les ONG d’inspiration catholique qui ont quelque chose à dire à l’Unesco de la vision chrétienne, catholique de l’homme, en se basant sur tout ce que font les O.N.G. sur le terrain à travers le monde, et sur leur connaissance des personnes qu’elles accompagnent. Et le CCIC est heureux de compter la JECI parmi ses membres actifs.

Deux  des domaines phares de l’Unesco sont celui de l’éducation et celui des sciences humaines et sociales. C’est dans ce cadre que le CCIC a mobilisé de nombreux experts pour des regards croisés sur le sujet « Métamorphose du monde, jusqu’où l’Homme peut-il changer l’humain ? Quelle boussole pour l’éducation ? », en impliquant également des responsables de ces deux secteurs de l’Unesco.

Intelligence artificielle, éducation, opportunité et défis : tel est le thème que vous me demandez d’aborder aujourd’hui. Nous y avons travaillé plus de deux ans, produit trois webinaires de deux heures, publié un livre, donc c’est un défi que d’en parler en 15 minutes. J’essaye modestement de le relever avec pour seul objectif d’éveiller votre intérêt, votre vigilance, votre capacité à vous poser des questions.

Petites précisions préliminaires de vocabulaire : l’intelligence artificielle n’est pas intelligente mais c’est un mécanisme inventé par l’homme, qui est fort intelligent, mais qui, lui , n’est pas une mécanique ultrarapide ni ultra performante

Par ailleurs le mot homme en français signifie personne humaine, qu’elle soit de sexe masculin ou féminin. Et dernière précision, je parle non pas d’intelligence artificielle en général mais des technologies et technosciences qui font appel à l’intelligence artificielle.

 Je vais donc me focaliser sur une préoccupation actuelle : comment sensibiliser les jeunes aux aspects éthiques des technologies de l’IA, tant les utilisateurs que le concepteurs :

Vous êtes nés dans un paysage où l’IA est omniprésente (certes plus ou moins selon les régions du monde) tandis que les plus anciens qui ont connu l’avant-numérique et l’avant- Internet voient qu’il y a un changement profond de paradigme-  en effet et sans nier les opportunités phénoménales amenées par les technologies de l’IA , on entrevoit que l’humain puisse aussi y perdre son âme.

Les poissons ne se posent pas la question de savoir si l’eau où ils nagent depuis leur naissance est chaude ou froide. Vous ne voyez pas forcément  l’IA, et encore moins ses conséquences : c’est une particularité de l’intelligence artificielle que d’être largement invisible. Or dès que vous prenez en main votre smartphone , l’utilisez pour rechercher votre chemin, pour faire une traduction, dicter un message, ou commander une pizza ou même quand vous montez dans un métro automatique, vous utilisez de l’intelligence artificielle.

 -Eh bien, et c’est l’objet même de mon intervention : je me propose de susciter chez vous des questionnements en particulier sur les aspects éthiques de l’IA.  l’éthique -certes c’est une grille de lecture possible –l’éthique questionne notre rapport au VRAI, au BON au BIEN,  au BEAU. Une autre grille de lecture qui serait intéressante serait d’interroger comment les usages de l’intelligence artificielle influencent les rapports de l’homme à lui-même, ses rapports aux autres individus et à la société, à la nature, et à Dieu ou à la transcendance, à ce qui le dépasse.  L’IA transforme en effet nos modes de vie et notre relation au monde… mais je dois faire court

Alors posons-nous simplement la question : en quoi l’intelligence artificielle questionne-t-elle notre rapport au VRAI : le réel, le virtuel, les métavers :

1-Par exemple, quelle perception ai-je de moi-même ?  
– la machine est si performante que je ne suis qu’une machine sous performante…
– Ou alors, la machine est toute puissante, elle a forcément raison…
Or cette toute-puissance est un mythe. Si j’ai conscience de ce qu’est réellement l’être humain, un être unique doué de conscience, d’émotions, de sentiments, de cœur et de chair, d’imagination, de curiosité, d’aspirations, pétri d’une histoire vécue et d’un futur à imaginer, il n’y a aucune compétition qui vaille entre la machine et moi.


2-Autre question possible : quelle image est ce que je donne et je peux donner de moi-même dans le monde virtuel, sur les réseaux sociaux et dans les métavers ?  Je peux exister sous des avatars divers ne serait-ce par exemple que sur des sites de rencontre : je peux mentir sur 1000 aspects de ma personne. Le vrai de moi-même ne se réduit pas à des data :  je suis moi-même corps-cœur- esprit indissociables, ( ceci se confirme de plus en plus par les observations rendues possibles par les avancées des neurosciences),  et on ne peut me réduire à des données, des data qui ne sont jamais que des chiffres.

3-Les données sont numérisées : comment traduire en digits mes émotions- par exemple ma douleur est-elle simplement un chiffre entre un et dix ?

4-Quel rapport au VRAI l’intelligence artificielle introduit-t-elle dans la démarche scientifique ?
L’ utilisation de l’intelligence artificielle introduit une révolution dans la démarche scientifique : le scientifique cherche à comprendre les phénomènes en vue de guider des actions et de prévoir des évolutions de phénomènes physiques, sociaux, etc… Il a développé des théories, les a vérifiées par l’expérience, ce qui a pu prendre des dizaines d’années. Il a par la suite- grâce à la capacité de calcul apportée par le développement des machines- pu créer des modèles numériques pour prédire l’évolution de systèmes plus complexes comme par exemple  la météo. Celle-ci répond à des lois physiques, et on les met en oeuvre dans des modèles numériques que la machine fait « tourner ».   Maintenant, avec l’utilisation des big data on en vient à prédire sans comprendre, sur la base de corrélations et d’analyses d’un nombre considérable de données. Il s’est opéré un glissement sémantique dans beaucoup d’esprits et même de technologies : glissement entre le concept de causalité et celui de corrélation, ou de concomitance. Je vous donne un exemple : on cherche s’il y a un rapport entre la prise de drogues dures et l’usage antérieur de drogues douces chez un grand nombre d’individus : ah oui ! cela s’avère très net, très parlant :  on se rend compte que 80 % des adeptes de drogues dures ont d’abord été des consommateurs de drogues douces. Qu’est-ce que vous en déduisez ? Par ailleurs on peut de la même façon croiser d’autres données : comme celle de la consommation antérieure de lait, et on se rend compte alors que 90 % de ces consommateurs de drogues dures ont dans leur enfance consommé du lait …     Il y a manifestement corrélation entre la consommation de drogue dure et celle de lait dans l’enfance, et pourtant le bon sens rend difficile d’y voir une relation de cause à effet.  Même si cet exemple de confusion entre corrélation et causalité est assez simpliste et réducteur, il doit nous inciter à une grande rigueur  dans l’utilisation des données et des corrélations, et nous amène à un autre registre de questionnement:

Un autre point éthique est d’observer en quoi l’utilisation de l’IA interroge le rapport au BON et au BIEN .

Une évolution récente est celle du passage des décisions « data assisted » à « data driven »
L’humain est amené à faire des choix, à prendre des décisions et il est maintenant tenté de s’appuyer sur des analyses, des simulations, des informations, résultant d’un traitement de données par des machines, des algorithmes ou du deep Learning. Or les « machines » ne connaissent que le passé, des données,  des statistiques déjà enregistrées.    C’est ainsi par exemple que pour des décisions de justice, déjà aux États-Unis, on court-circuite de longues procédures que je qualifierais d’humaines en utilisant des « profils » de délinquants, des « profils de personnalités ».   Or chaque personne est unique, chaque parcours est unique. Data driven signifie qu’il n’y a même plus d’algorithme , seules les data , la compilation de milliards de data aboutit à des solutions, sans qu’on puisse comprendre les causes et mécanismes des phénomènes concernés. Est-il raisonnable de laisser la machine prendre une décision sans intervention de la conscience humaine, qui même sans tout comprendre, peut intégrer sa raison, sa conscience, ses valeurs, qui échappent à la machine. Ceci nous interroge en particulier sur la conception et l’utilisation de certains systèmes d’armes…

Mais pour rester dans le concret , et même dans le positif, je vais vous parler d’une personne rencontrée il y a quelques années, et de la start up qu’il a créée avec un professeur d’université en chimie de l’innovation. Vous voyez ce que sont les levures, on en met pour faire lever la pâte à pain, et vous savez ce qu’est le sucre, composé essentiellement d’atomes de carbone. Quand les levures digèrent du sucre, elles le décomposent en chaines d’atomes de carbone qui peuvent s’organiser de mille façons différentes. En modifiant génétiquement la levure, on peut lui faire produire telle ou telle chaine carbonée spécifique.

Mais quelle modification pour tel produit? comment choisir parmi des milliards de possibilités, et c’est là que l’IA intervient : elle permet en faisant des milliards de tests virtuels, de sélectionner quelques centaines de possibilités, qui elles, pourront faire l’objet de véritables expériences en laboratoire. Un exemple de ce qu’ils ont produit est le squalane : la base des crèmes dermatologiques ou cosmétiques qui jusque là provenait des squales. Cette découverte a sauvé la vie de centaines de baleines, est-ce qu’elle n’a pas contribué à sauver la planète ?  Par une autre modification génétique des levures, il a produit un liquide anti-moustique qu’il proposait de fournir gratuitement pour en  imprégner des moustiquaires à destination des pays africains, qui pourrait protéger les habitants de maladies graves. N’est-ce pas là une  recherche de faire le BIEN ?   Une autre application de cette biotechnologie est de produire du biocarburant. Il y a un changement d’échelle dans les quantités à fournir. Devait-il investir dans des terres agricoles pour produire en très grande quantité de la canne à sucre, à transformer ensuite en combustible ? Est-ce que cela supprimait des cultures vivrières ? Vous voyez comment cette biotech dont les réalisations sont le fruit de l’Intelligence artificielle (et du génie humain ) peuvent ou non contribuer au BON, au BIEN.

Je voudrais maintenant attirer votre attention sur la façon dont les GAFA vous proposent ce qui paraît BON pour vous:  pour me faire plaisir, donc pour que je passe le plus de temps possible sur Internet, les GAFA me proposent toutes sortes de choses en se basant sur ce qu’ils savent de moi -et ils en savent beaucoup plus que moi-même. Ils se basent forcément sur seulement ce qu’ils savent c’est-à-dire exclusivement mon passé.   Or les découvertes récentes des neurosciences nous montrent qu’il existe deux circuits de la récompense dans le cerveau : celui qui s’appuie sur nos expériences -par exemple j’aime retrouver la musique de tel film à succès, donc ils vont la réutiliser dans des publicités. Connaissant mes goûts via mon historique de recherches et d’achats,  ils vont essayer tous les nudges possibles, ces petits coups de pouce pour m’inciter à acheter… mais ils n’ont  aucune prise par contre sur l’autre circuit neurologique de la récompense qui est celui de la curiosité, de la découverte.      

-d’où ce point de vigilance : est-ce que je ne tourne pas en rond dans mes propres histoires est-ce que je ne tourne pas en rond dans l’entre soi , dans mon cercle fermé de connaissances… ?

Il faudrait encore s’interroger sur l’effet des technologies de l’IA sur notre rapport au BEAU, à vous de vous poser la question…

D’où cette recommandation pour l’éducation celle de développer tout ce qui est curiosité, imagination et rapport au réel concret, et au temps naturellement lent : se confronter à la matière, à comprendre l’altérité, les relations interpersonnelles et leur complexité, à l’inattendu, l’imprévisible, questionner notre rapport au temps en regardant pousser des plantes… en effet l’immédiateté d’une réponse internet s’oppose à la durée d’une réflexion approfondie, d’une recherche, d’un dialogue d’une relation humaine. Pensez au petit Prince imaginé par Saint-Exupéry, à qui le renard explique que pour « apprivoiser » un ami , il faut chaque jour venir s’assoir un peu plus près l’un de l’autre, et que cela prend du temps. L’utilisation de l’IA permet des raccourcis , de gagner du temps, et risque de faire perdre le sens de l’effort, de la persévérance, ses réponses immédiates remplacent souvent le questionnement, l’argumentation, et les enseignants signalent déjà cette perte de compétence.

Pensez alors à développer votre capacité à penser par vous-mêmes, à prendre du recul par rapport au foisonnement d’informations, à débattre avec des arguments -c’est exactement le contraire de ce que propose un post Facebook où on « like » ou on « shame » et de ce simple geste on croit contribuer à sauver la planète : or c’est une pure illusion.  En effet les réseaux sociaux donnent une illusion de l’action,  nient totalement la réflexion et l’argumentaire. Sortez de l’illusion entretenue par les réseaux sociaux pour vous risquer dans l’action, et cela demande du courage…alors que l’utilisation inconsidérée de technologies de l’IA prédispose largement à l’inaction et l’on voit se développer une grosse flemme, ennemi insidieux de l’épanouissement humain. On n’éduque pas un humain comme un robot, n’hésitez pas à vous former en sciences humaines, à la philosophie, à l’éthique, à l’art, faites du sport, et prenez un peu de temps au service des autres…

Si je dois conclure en trois mots ce propos : rendons grâce pour ce don qu’est la conscience,  et aux éducateurs qui ont la mission d’éveiller celle des jeunes, qui avez-vous-même vocation à l’approfondir. Ayons ensemble le souci du Beau, du Bon, du Vrai, d’une culture de l’éducation qui éveille la conscience, à être soi pour être au monde, avec et pour les autres. 

                                   Isabelle Chaperon, présidente du CCIC, le 13 novembre 2022