C’est un communiqué au ton ferme, sans ambiguïté, qui a été publié par l’université de recherche française Science Po, durant l’hiver 2023 : « L’utilisation, sans mention explicite, de ChatGPT à Sciences Po, ou de tout autre outil ayant recours à l’IA est, à l’exception d’un usage pédagogique encadré par un enseignant, pour l’instant strictement interdite lors de la production de travaux écrits et oraux par les étudiantes et étudiants ». Le texte précise que des sanctions sont prévues en cas de non-respect de cette décision, pouvant aller « jusqu’à l’exclusion de l’établissement voire de l’enseignement supérieur ».
La mise à disposition au grand public de l’agent conversationnel ChatGPT, en novembre 2022, a suscité de nombreuses interrogations dans le monde de l’enseignement supérieur et de la recherche. Comment s’assurer de l’origine des productions des étudiants ? De quelle manière le corps enseignant pouvait-il les mettre en garde face aux biais des outils d’IA générative ? Au-delà, comment faire en sorte que la vocation même des établissements d’enseignement supérieur – développer la capacité d’analyse et de réflexion et d’argumentation des apprenants – ne soit pas remise en cause par ces nouveaux outils ?
Le premier réflexe a été d’interdire. Le second, d’accompagner.
Le premier réflexe de plusieurs grands centres universitaires mondiaux a été, comme cela a été le cas à Sciences Po Paris, d’interdire l’usage de solutions comme ChatGPT. Mais face au développement exponentiel de ces outils, ainsi qu’aux difficultés à identifier les fraudeurs, plusieurs établissements de rang international ont décidé d’adopter une stratégie différente, bien plus nuancée, et de tenter de « contrôler » le mouvement en accompagnant les étudiants et les enseignants. Des universités ont ainsi publié des codes de bonne conduite sur l’usage de l’Intelligence artificielle générative.
« Tirer parti des opportunités offertes »
C’est le cas par exemple au Royaume-Uni, où le groupe Russel, regroupant 24 établissements de renom (Bristol, Cambridge, Oxford…), a rendu public en juillet 2023 un document recensant de « grands principes sur l’utilisation de l’IA dans l’éducation ». Il doit permettre aux étudiants et au personnel de « tirer parti des opportunités offertes par les avancées technologiques en matière d’enseignement et d’apprentissage » – tout en reconnaissant qu’elle implique également des risques.
Cet usage « éthique et responsable de l’IA générative » prévoit que les universités soutiennent leurs étudiants et leur personnel dans la maîtrise de ces outils. Cela passera notamment par la formation des enseignants. Le contenu des enseignements et des évaluations sera par ailleurs amené à évoluer afin d’intégrer l’usage éthique de l’IA.
À Harvard, un bot basé sur ChatGPT donne des cours d’informatique.
Cette volonté de proposer une utilisation régulée de l’IA se retrouve également outre-Atlantique. À l’Université Stanford, aux États-Unis, des « orientations générales » ont été précisées sur le sujet, en février 2023. Un document du Board on Conduct Affairs (BCA) a mis en garde contre les usages qui pourraient « contourner les principaux objectifs d’apprentissage » et indiqué que tout recours à ces solutions devait être signalé par les étudiants.
Le BCA a mis dans le même temps en avant une orientation claire, soulignant qu’il accordait une grande latitude aux enseignants, « libres de définir leur propre politique réglementant l’utilisation d’outils d’IA générative dans leurs cours, y compris en autorisant ou en interdisant l’utilisation de tout ou partie des fonctionnalités de ces solutions ».
Au-delà de la régulation des pratiques, l’usage de l’IA peut être encouragé durant les sessions de formation par certains établissements. L’université américaine de Harvard autorise par exemple le recours à ChatGPT lors de cours d’informatique. En appui des enseignants et des assistants, un robot conversationnel baptisé CS50 est en effet chargé de fournir une aide personnalisée aux étudiants.
Préserver la sécurité des données de l’université
Enfin, les universités portent aussi un œil attentif sur l’utilisation de l’IA générative pour les travaux de recherche de leur communauté scientifique. À l’université Stanford, des recommandations sont émises notamment à destination du corps enseignant pour un usage « responsable ». L’accent est en particulier mis sur la « prudence » nécessaire des utilisateurs de ces solutions et sur l’étude des bonnes pratiques (application des règles de confidentialité), afin de préserver la sécurité des données de l’université.
De fait, il s’agit là d’un sujet stratégique pour les établissements d’enseignement supérieur, qui doivent s’adapter à l’adoption de l’IA générative par une proportion importante – et croissante – de ses enseignants-chercheurs. Selon une étude internationale de la revue Nature, 31 % des chercheurs postdoctoraux auraient recours aux robots conversationnels dans le cadre de leur travail.