Les grands modèles linguistiques défient l'avenir de l'enseignement supérieur
Nature Machine Intelligence volume 5, pages 333–334 (2023)Citer cet article
5221 Accès
1 Citations
20 Altmétrique
Détails des métriques
ChatGPT est un chatbot basé sur un grand modèle de langage (LLM) qui génère du texte au format dialogue. Il a été rendu public par OpenAI en décembre 2022 et a envoyé des ondes de choc dans le secteur de l'enseignement supérieur pour sa capacité à créer un texte raffiné et confiant, qui pourrait être utilisé pour rédiger des essais et des devoirs. Alors que pour l'instant, il peut produire des réponses1 qui ne sont que suffisamment compétentes pour obtenir une note de passage, il est capable de répondre correctement à des questions à choix multiples dans plusieurs domaines, y compris en passant des exemples de questions d'examens de licence de haut niveau. Le rythme de progression de ces applications a été tel qu'il n'est pas difficile d'imaginer qu'un successeur bien amélioré de ChatGPT sortira bientôt.
Une question qui se pose est de savoir si et comment l'enseignement supérieur doit réagir. Les universités devraient-elles interdire son utilisation ? Ou les universitaires devraient-ils plutôt accepter que les modèles linguistiques fassent partie intégrante de leur boîte à outils professionnelle et les intégrer dans nos pratiques d'enseignement et d'évaluation ?
Sur le plan pratique, autoriser l'utilisation d'outils basés sur le LLM aurait un impact sur la structure de l'évaluation. Et au niveau de la conduite professionnelle, beaucoup partagent le sentiment que l'utilisation d'un texte produit par un LLM équivaut à commettre un plagiat. Comme les universités ont déjà mis en place des sanctions sévères pour sanctionner le plagiat par d'autres moyens, il semble naturel de les étendre aux LLM. Un problème avec cette approche, cependant, est qu'elle sera difficile à appliquer. Contrairement au copier-coller ou à la paraphrase, les LLM produisent un nouveau texte qui n'est pas traçable à une source unique, et bien qu'un logiciel pour vérifier la probabilité de tricherie assistée par LLM ait été publié (réf. 2), leur fiabilité semble être faible pour le moment. De plus, toute tentative de mise à niveau du logiciel de détection est susceptible d'échouer3 face à l'évolution rapide des LLM.
Une autre réaction de certaines universités a été de revenir (au moins temporairement) aux examens à l'ancienne avec stylo et papier surveillés comme principal mode d'évaluation. Bien que cette solution réduise considérablement la tricherie liée au LLM à court terme, il est peu probable qu'elle soit durable ou largement applicable. L'approche ne peut être utilisée que dans les établissements traditionnels où les étudiants sont physiquement présents, et il s'agit d'un mouvement régressif par rapport aux transformations numériques dans la prestation et l'évaluation de l'enseignement supérieur4 qui ont été provoquées par la pandémie mondiale de COVID-19. Transformer l'évaluation écrite en examens oraux peut être mieux adapté aux environnements numériques, mais cela pose des problèmes de fiabilité, de validité et d'évolutivité.
Un troisième type de réaction aux LLM, et peut-être le seul durable, consiste à les adapter et à les adopter, comme envisagé dans un récent éditorial5 de cette revue et conformément à l'annonce récente du Baccalauréat International concernant leurs qualifications6. Il existe de nombreuses possibilités d'expérimenter et d'être créatif avec ChatGPT lors de l'enseignement et de l'évaluation des étudiants. Cependant, l'adoption de ChatGPT (ou d'applications privées similaires) dans le cadre de la pratique courante soulève de sérieux risques de conséquences opérationnelles, financières, pédagogiques et éthiques négatives pour les universités. En particulier, OpenAI n'a aucune obligation de répondre aux besoins des établissements d'enseignement en matière de maintenance et d'accès à son modèle, créant ainsi des problèmes opérationnels de base si cela fait partie de l'évaluation.
Les implications pédagogiques à long terme de l'acceptation des LLM comme outils d'apprentissage doivent également être prises en compte. La pratique de l'écriture académique est un moyen courant d'enseigner et d'évaluer l'argumentation logique et la pensée critique7 (qui, ironiquement, sont des compétences nécessaires pour évaluer la production d'un LLM). Les étudiants en langues étrangères ou les étudiants défavorisés sur le plan éducatif sont probablement les plus touchés, les éducateurs mettant moins l'accent sur l'apprentissage de la rédaction de textes bien écrits et argumentés. Cela pourrait finir par renforcer les fractures sociales et diminuer la mobilité sociale une fois que les étudiants obtiennent leur diplôme et sont jetés dans des environnements de travail où les LLM peuvent ne pas être disponibles ou utiles.
Un autre défi concerne la confiance que les éducateurs peuvent accorder au modèle, comment il a été formé et sur quelles données. Le texte produit par les LLM est le reflet de modèles8 dans les données de formation. Son utilisation dans le domaine de l'éducation pourrait aggraver davantage les atteintes à la représentation d'une manière insidieusement difficile à documenter et à réparer9. OpenAI a fait quelques progrès dans l'amélioration de la précision de ChatGPT sur les invites factuelles et également dans la modération du contenu toxique. Cependant, les limites de cette ingénierie sont impossibles à tester, et elles se sont faites au prix de l'exploitation du travail des travailleurs des données qui, il est apparu10, ont été engagés pour visualiser et étiqueter le contenu toxique. Les éducateurs adoptant ChatGPT dans leur enseignement valideraient implicitement ces pratiques néfastes et extractives.
Enfin, il convient de s'inquiéter des ressources nécessaires à la gestion des LLM, en particulier à la lumière des engagements nets zéro et faibles en carbone de centaines d'universités. Un article récent estime l'empreinte carbone quotidienne de ChatGPT à environ 23 kg CO2e, soit à peu près la même chose qu'un aller-retour Londres-Paris en Eurostar, mais cela n'inclut pas le coût de la formation du modèle. Bien que cela puisse sembler relativement faible, il augmentera rapidement à mesure que la technologie deviendra omniprésente. Les établissements d'enseignement devraient donc veiller à demander aux étudiants d'utiliser un modèle dont le fonctionnement contribue activement à la crise climatique, à moins que la valeur qui peut être tirée de son utilisation dépasse manifestement le coût environnemental.
Face à ces défis, que peuvent faire les universitaires ? Une étape pourrait être la création de LLM financés par des fonds publics en collaboration avec des initiatives ouvertes et dirigées par des parties prenantes comme le projet BigScience. De tels modèles pourraient être spécifiquement développés pour les milieux éducatifs, en veillant à ce qu'ils soient vérifiables et transparents en ce qui concerne leurs coûts humains et environnementaux. Cela nécessitera une vision tournée vers l'avenir, des investissements substantiels ainsi que l'implication et le lobbying actifs des établissements d'enseignement et de leurs bailleurs de fonds. L'enthousiasme suscité par ChatGPT et d'autres outils LLM préfigure l'énorme problème politique de savoir qui possède et établit les normes de l'éducation à l'ère de l'IA.
Choi, JH, Hickman, KE, Monahan, A. & Schwarcz, D. SSRN https://doi.org/10.2139/ssrn.4335905 (2023).
Article Google Scholar
Heikkilä, M. Comment repérer le texte généré par l'IA. Examen de la technologie MIT https://www.technologyreview.com/2022/12/19/1065596/how-to-spot-ai-generated-text/ (2022).
Nature 613, 612–612 (2023).
García-Morales, VJ, Garrido-Moreno, A. & Martín-Rojas, R. Front. Psycho. 12, (2021).
Nat. Mach. Intel. 5, 1 (2023).
Hill, C. et Lawton, WJ High. Éduc. Gestion des politiques 40, 598–610 (2018).
Article Google Scholar
Liu, F. & Stapleton, P. Évaluer. Ordonnance. 38, 10-20 (2018).
Article Google Scholar
Bender, EM, Gebru, T., McMillan-Major, A. & Shmitchell, S. dans Actes de la Conférence ACM 2021 sur l'équité, la responsabilité et la transparence 610–623 (ACM, 2021).
Weidinger, L. et al. Préimpression sur arXiv http://arxiv.org/abs/2112.04359 (2021).
Temps. Exclusif : les travailleurs à 2 $ de l'heure qui ont rendu ChatGPT plus sûr. Heure https://time.com/6247678/openai-chatgpt-kenya-workers/ (18 janvier 2023).
Télécharger les références
Centre d'Exeter pour l'étude des sciences de la vie (Egenis), Université d'Exeter, Exeter, Royaume-Uni
Silvia Milano et Sabina Leonelli
Melbourne Graduate School of Education, Université de Melbourne, Melbourne, Victoria, Australie
Joshua A. McGrane
Vous pouvez également rechercher cet auteur dans PubMed Google Scholar
Vous pouvez également rechercher cet auteur dans PubMed Google Scholar
Vous pouvez également rechercher cet auteur dans PubMed Google Scholar
Correspondance avec Silvia Milano.
Les auteurs ne déclarent aucun intérêt concurrent.
Nature Machine Intelligence remercie les relecteurs anonymes pour leur contribution à la relecture par les pairs de ce travail.
Réimpressions et autorisations
Milano, S., McGrane, JA & Leonelli, S. Les grands modèles linguistiques défient l'avenir de l'enseignement supérieur. Night March Intell 5, 333–334 (2023). https://doi.org/10.1038/s42256-023-00644-2
Télécharger la citation
Publié: 31 mars 2023
Date d'émission : avril 2023
DOI : https://doi.org/10.1038/s42256-023-00644-2
Toute personne avec qui vous partagez le lien suivant pourra lire ce contenu :
Désolé, aucun lien partageable n'est actuellement disponible pour cet article.
Fourni par l'initiative de partage de contenu Springer Nature SharedIt