Contributions des secteurs SHS et Education

Parmi les nombreux side-events du jour zéro de la conférence internationale « Internet For Trust » ( pour un Internet de confiance) , l’Assistante à la Directrice Générale pour le secteur Sciences Humaines et Sociales de l’Unesco Madame Gabriela Ramos présidait une table ronde sur l’utilisation de la « Recommandation sur l’éthique de l’intelligence artificielle » pour faire progresser la gouvernance de l’ intelligence artificielle à travers le monde , puis l’Assistante à la Directrice Générale pour le secteur Education Madame Stefania Gianini présidait celle sur le rôle de l’éducation face à la diffusion des discours de haine, impliquant aussi L’ADG pour le secteur Communication et Information, Tawfik Jelassi. Cette conférence internationale « Internet fort Trust » rassemblait en trois journées (21-23 février) 4000 participants : gouvernants, représentants d’entreprises digitales, d’organes indépendants de régulation, universitaires, journalistes, youtubeurs, représentants de la société civile, autour d’un projet de « Principes de régulation des plates-formes numériques : une approche multipartite pour sauvegarder la liberté d’expression et d’accès à l’information comme bien commun ».

Sur ce sujet d’actualité – à plusieurs reprises il a été fait allusion à l’innovation récente et « disruptive » de Chat GPT-  les échanges ont été très intéressants avec notamment la mise  en évidence des risques voire des dangers que peuvent générer ces applications de plus en plus présentes dans l’univers internet- en particulier par la diffusion de discours de haine et la propagation de fake news- et des conditions dans lesquelles en développer un bon usage.

On reprend ci-après les idées émises par une dizaine d’experts venant d’horizons géographiques et professionnels très diversifiés.

Sans disconvenir des résultats très positifs que peuvent dégager ces nouveaux systèmes très « intelligemment » automatisés, les intervenants , peut être plus que d’ordinaire dans ce type d’évènements, ont souligné les risques que peuvent générer les applications ayant recours à l’IA, des risques qui sont à la mesure des performances de plus en plus spectaculaires de ces systèmes, et dont on perçoit déjà des conséquences notables.

Les orateurs ont à juste titre insisté sur les aspects concrets des problèmes que pose l’IA dans son implication dans internet, à raison de son emprise grandissante sur les modes de vie et de travail dans nos sociétés.

Il faut s’intéresser au sujet à tous les niveaux et tout au long des processus IA permettant les dialogues « mécaniques » « Homme-Machine » depuis leur conception jusqu’à leur déploiement et leur usage. L’attention particulière qu’il faut leur porter doit privilégier l’analyse de deux paramètres essentiels pour une bonne compréhension des résultats que dégagent l’interaction « utilisateur-système » gouvernée par l’IA à savoir : l’explicabilité et la transparence.

Par ailleurs comme l’IA se nourrit de Big Data, force est de reconnaitre que celles issues de certaines régions comme l’Afrique sont sous-représentées, ce qui induit un biais dans les résultats. De même comment l’IA peut-elle refléter des valeurs quand celles-ci sont essentiellement transmises par oral, donc ne laissent pas de traces sur les bases de données utilisées par l’IA ?

Pour éviter toute méprise (d’interprétation) et bien avoir conscience des propositions que génèrent les applications d’IA, il faut en effet comprendre « comment elles marchent » et « apprécier la qualité de leurs réponses aux questions que -plus ou moins bien – leurs soumettent les utilisateurs.

Mais avant même le respect de ces règles comportementales pour un bon usage, il est hautement souhaitable de vérifier si un certain nombre  de prérequis éthiques sont bien remplis avant la diffusion de ces processus automatisés, et, pour ce faire, il est indispensable de bien tester les applications préalablement à leur mise sur le marché, et le faire très concrètement, dans un espace restreint et sécurisé, non pas sur la base de vagues idées générales.

L’important est à voir sous l’angle des impacts qu’il faut savoir bien mesurer et apprécier tout particulièrement lorsqu’ils touchent à l’Humain qui doit être préservé, protégé et, pour tout dire, rester au centre des préoccupations des développeurs de ces applications ; ce qui compte, alors, est de trouver des réponses proportionnées pour une juste prise en compte  de critères essentiels qui caractérisent la personne comme ceux touchant à la liberté, à la justice, la sécurité ou  la vérité (à voir avec les questions touchant aux données et à l’information)

Cela étant précisé, l’IA , comme tout ce qui structure le monde numérique, ne peut se concevoir indépendamment d’un cadre juridique suffisamment protecteur pour éviter les abus et les exploitations malveillantes de ces techniques. A cet égard,  beaucoup de pays ont déjà pris des initiatives législatives, qu’il s’agisse des plus avancés ( cf l’Union européenne ou les Etats-Unis) ou d’autres moins engagés dans la production d’IA mais susceptibles d’être affectés  par elle dans les usages (ici, un représentant de la Namibie a présenté ce qui a déjà été fait dans son pays avec parfois des initiatives s’inscrivant dans un cadre porté par l’Union Africaine).

L’éducation est reconnue comme un des moyens efficaces de combattre la diffusion des discours de haine, l’Unesco y travaille concrètement par plusieurs initiatives.

Il est proposé d’éduquer les jeunes en particulier les 12-15 ans -l’âge où se développent leurs « pratiques numériques »- en leur donnant un socle de base qui leur soit utile à la vie en général, à une vie citoyenne, et pas seulement à visée professionnalisante. Savoir s’informer, détecter la désinformation, c’est l’objet des nécessaires formations aux médias et à l’information. Le rôle d’internet dans le cyberharcèlement et le harcèlement scolaire en particulier est indéniable, il est donc nécessaire de sensibiliser les jeunes à tout ce que cela implique. Former à l’esprit critique a plus que jamais une importance majeure. Un intervenant a par ailleurs très pertinemment souligné la grande vulnérabilité des seniors face à la désinformation ou autres manipulations véhiculées par les médias et internet.

Pour une plus grande efficacité des contrôles, il est souhaitable que les mesures adoptées ou envisagées s’inspirent de stratégies donnant les lignes directrices permettant d’assurer une élaboration cohérente des instruments juridiques ou des instances de surveillance sans excès de lourdeur : il ne faut pas prendre d’orientations qui soient nuisibles aux innovations, ce point a été rappelé à plusieurs reprises.

C’est bien à une approche multipartite concertée et mondiale qu’il faut travailler, et c’est l’objet des deux journées suivantes de la conférence mondiale Internet for Trust (22, 23 février2023 à l’UNESCO)

  • Voir le communiqué de presse et vidéos associées des deux journées suivantes :

Lire ici

  • Voir le replay de la session inaugurale du 22 février:

Voir la vidéo