Depuis plusieurs mois, les membres d’ALM-formation réfléchissent sur les implications éthiques du recours à l’intelligence artificielle (IA). L’IA a fait son apparition dans nos formations, c’est incontestable. Il serait déraisonnable d’ignorer la présence discrète de Chat GPT dans la production de nos stagiaires.
Mais quelle posture devons-nous prendre, nous formatrices et formateurs, devant ce phénomène qui monte et noie nos repères ?
Après des millénaires d’écriture avec un roseau, un ciseau, une plume ou un stylo entre les doigts et quelques décennies à taper sur un clavier, nous écrivons désormais la majeure partie du temps avec nos pouces sur nos téléphones portables. Lorsque nous touchons un écran, nous attendons qu’il glisse d’un côté ou d’un autre sous leur impulsion. Cette transition s’est opérée sans grande résistance pour la majorité de la population mondiale. Après une période de découverte, d’émerveillement ou de méfiance, l’habitude s’est installée rapidement.
Pourquoi l’IA?
L’arrivée de l’IA en enseignement demande maintenant un moment de réflexion. Car là est le cœur du sujet. À quelles fins utilise-t-on les outils d’intelligence artificielle générative, Chat GPT pour reprendre cet exemple ? Pour se donner des éléments de réflexion ? Pour déverrouiller cette fameuse page blanche ? Pour gagner du temps et dans ce cas, est-ce pour prendre le temps de réfléchir ? Le but est-il de se créer une assistance ou un délestage des contraintes ?
La qualité et les possibilités offertes par les outils de l’intelligence artificielle sont impressionnantes… et tentantes. L’IA s’est glissée dans notre quotidien aisément et certains outils ne sont même plus associés consciemment à l’IA, telle qu’une recherche Google ou une traduction sur DeepL. Des gestes simples et rapides, qui apportent une solution immédiate. Lors de l’utilisation des outils de l’IA, quelle limite pouvons-nous poser ?
Telle est la question
Avec l’utilisation de Chat GPT, les éléments importés par l’algorithme n’auront rien de novateur ni de réfléchi. Il s’agira d’une compilation d’informations glanées dans les moindres recoins de la toile mondiale d’Internet. Ce processus favorise-t-il l’instruction et l’activation de la pensée critique ? Lorsque l’on recherche activement des renseignements sur Google une réflexion se met en route. Mais lorsqu’un texte apparait comme par magie après l’entrée d’un prompt sommaire et comble un besoin d’efficacité et de rapidité, pouvons-nous prendre le temps de le remettre en question et d’en repérer les biais?
Les sources des contenus ne sont d’ailleurs pas mentionnées, et il serait aisé de faire du plagiat sans s’en rendre compte. Qu’en est-il alors de l’intégrité scientifique ? Est-il éthique d’utiliser les outils de l’IA pour écrire sa thèse ?
Si l’utilité de Chat GPT semble être confirmée pour les personnes souffrant de dysorthographie ou n’importe quelle personne entravée pour écrire – les orthophonistes utilisant d’ailleurs l’IA pour créer des programmes de rééducation- devons-nous pour autant renoncer à l’apprentissage ?
Dans son livre, FantasIA (Éditions Grasset & Fasquelle 2024, p50-52), Laura Sibony consacre un chapitre à l’histoire du Turc mécanique, cet automate en bois attaché à une table roulante, apparemment imbattable aux échecs, qui au dix-neuvième siècle, fit des tournées triomphales en Europe ainsi qu’aux États-Unis, et qui avait défié jusqu’à Napoléon. L’auteure relate l’interaction du bateleur avec le public, qu’il aimait provoquer avec des « Vous vous croyez intelligents ? Il y a une intelligence qui est juste de la logique, à laquelle il suffit de trouver des liens de cause à effet. Et il y a une intelligence, bien supérieure, qui s’adapte et apprend sans cesse. » L’auteure écrit ensuite « Au fond, ce qu’il disait pouvait se résumer à : l’intelligence logique est une belle chose, mais la capacité à apprendre vaut mieux. Apprendre, c’est faire de la connaissance statique un savoir en mouvement, capable de se corriger, de s’améliorer et de se perfectionner. Aujourd’hui, des machines capables d’apprendre il y en a ! »
Elle poursuit en citant Deep Blue, modélisé, et sa différence avec le Turc, programmé. Imaginant une partie d’échec entre Le Turc et Deep Blue, Laura Sibony écrit « Si j’assistais à ce match, je miserais sur Deep Blue. Et je donnerais un conseil aux parieurs : ‘L’intelligence artificielle est un autre nom de l’intelligence logique. Il arrive souvent qu’on sache faire des choses, sans savoir expliquer comment on les a faites. Je sais très bien reconnaitre un visage, ou distinguer un chiot d’un muffin, sans pour autant savoir expliquer comment je le fais. Ce n’est pas de la magie : c’est une autre forme de raisonnement, qui se base sur l’analyse inconsciente d’immenses bases de données. C’est du machine learning, qui a cet avantage de s’adapter à des bases de données changeantes – comme un plateau d’’échecs en pleine partie. » Et de conclure que dans « Dans une partie qui opposerait Napoléon à Deep Blue, en revanche, je prendrais le parti de l’Empereur : il serait bien capable de débrancher la machine. »
Il est peut-être important de reconnaitre ce que l’être humain sait déjà faire, et de le favoriser. Et surtout de ne pas oublier que c’est l’être humain qui contrôle la machine, et non l’inverse.
A la recherche du temps gagné
« Gagner du temps » semble être un argument privilégié pour justifier l’utilisation de l’IA en enseignement. Les vendeurs de plateformes éducatives démontrent avec fierté la possibilité d’utiliser des évaluations prérédigées pour faire un retour sur les travaux des étudiants : il s’agit simplement de sélectionner l’option que l’on souhaite pour ce retour : positif, négatif, ou à améliorer. Un texte complet apparait alors sur l’écran. Pour de nombreux enseignantes et enseignants, l’attrait de la rapidité est compréhensible lorsque les copies à corriger sont nombreuses et le travail administratif éprouvant. Mais d’un point de vue éthique, est-il admissible de faire un retour robotisé à un être humain en plein apprentissage et en recherche de développement ? Le but de tout enseignant/ enseignante ou formateur/formatrice n’est-il pas de livrer un retour individualisé et construit sur la base de travail de l’étudiant ou de l’étudiante ? « Gagner du temps » dans ce contexte n’est basé que sur le court-terme. Quelle forme tout cela prend-il sur le long-terme ?
De nombreuses formations sont désormais entièrement construites grâce à l’IA générative, diaporamas compris. Est-ce bien utile? Est-ce justifié? Si l’on prend le temps de vérifier toutes les informations, est-ce tout de même plus rapide que de créer de A à Z sa formation ? Se l’approprie-t-on de la même façon ? Nos stagiaires pourraient-ils nous faire confiance si ils et elles savaient que c’était finalement l’intelligence artificielle leur principale interlocutrice ? La légitimité du formateur ou de la formatrice étant régulièrement jaugée, que se passerait-il si l’utilisation de Chat GPT était avouée?
À contre-courant
D’un point de vue du long-terme, l’alerte est lancée depuis des années : l’être humain doit prendre soin de sa planète. Or, l’IA consomme énormément d’électricité. « Les interactions avec des IA comme Chat GPT pourraient consommer 10 fois plus d’électricité qu’une recherche Google classique, d’après l’Agence internationale de l’énergie. » Polytechnique Insights, La revue de l’Institut Polytechnique de Paris, 13 novembre 2024 https://www.polytechnique-insights.com/tribunes/energie/ia-generative-la-consommation-energetique-explose/
Le temps gagné sur le court-terme réduit-il l’espérance de vie de notre planète ? Si nous encourageons l’utilisation de l’IA dans nos formations, participons-nous à cette précipitation ? Lors des conférences Produrable à Paris en octobre dernier, il a été admis par de nombreux experts que personne ne pouvait prédire ce que le futur nous réservait avec l’utilisation de l’IA.
D’un point de vue moral, nous nous devons de le prendre en compte.
Utiliser ou ne pas utiliser?
La question ne serait-elle pas plutôt « Avons-nous encore le choix ? » Sur un public d’environ 300 personnes lors de l’une des conférences de Produrable, seulement une poignée de personnes n’avaient encore jamais utilisé l’intelligence artificielle.
Est-il envisageable de résister au progrès ? Ne nous mettons-nous pas en situation de faiblesse si nous agissons de la sorte en tant que société ? Et tout comme pour les téléphones portables qui sont désormais utilisés pendant les cours pour texter, lire des notifications ou prendre des photos de nos slides, aurons-nous le contrôle sur ce que nous pouvons autoriser ?
Chez ALM, nous sommes en pleine réflexion, et à l’écoute de nos stagiaires pour déterminer les besoins. Nous nous renseignons sur les politiques internes d’utilisation de l’IA qui, aujourd’hui, sont majoritairement indéfinies. Un cri d’alarme commun sur la consommation énergétique de l’IA et le besoin d’une approche modérée à son utilisation se fait cependant entendre.
Le dilemme est évident, et comme pour tout dilemme, nous réfléchissons pour trouver la solution la plus vertueuse. Certainement pas la solution parfaite.
Mais une chose est sûre : nous sommes déterminés et déterminées à valoriser en priorité l’humain, son intelligence, ses émotions, son expérience personnelle, ainsi que son empathie.
Image de Gerd Altmann par Pixabay