L'utilisation de ChatGPT et d'autres modèles de langage offre de nombreux avantages pédagogiques, tels que l'aide à la correction et au formatage des idées, ainsi que la facilité de recherche grâce à une assistance personnalisée. Cependant, leur utilisation doit être encadrée pour prévenir les risques de plagiat et de paresse intellectuelle.
Tout d'abord, ChatGPT peut corriger, structurer et reformuler des textes de manière presque instantanée et personnalisée (G, 2023). Cela bénéficie particulièrement aux élèves en difficulté avec l'orthographe, la syntaxe ou la grammaire, leur permettant de se concentrer davantage sur le contenu de leurs idées et de stimuler leur créativité.
Aussi, les modèles de langage ont un fort potentiel pour la recherche d'informations. Par exemple, Bing AI peut rivaliser avec Google en fournissant des réponses directes aux questions et des liens vers des sites web (Vincent, 2023). Cela peut servir de point de départ pour les travaux de recherche des apprenants.
Cependant, il est important de noter que les machines peuvent parfois communiquer des informations erronées ou inventer des idées inexistantes, c’est ce que l'on appelle des "hallucinations" (McKenna, 2023). Par conséquent, la fiabilité de cette technologie est limitée.
Bien entendu, l'utilisation de la technologie peut inciter à la copie directe d'informations, ce qui expose au risque de plagiat (Science Direct, 2023). La paresse intellectuelle et le plagiat doivent donc être prévenus et, si nécessaire, sanctionnés dans le contexte pédagogique, à condition que cela puisse être prouvé.
En conclusion, ChatGPT et les autres modèles de langage ont un grand potentiel dans le contexte pédagogique de l'écriture. Ils peuvent faciliter la correction des textes et servir de point de départ pour la recherche de références. Cependant, il est essentiel de mettre en place un encadrement approprié pour éviter les abus tels que le plagiat. Les consignes de devoirs doivent être moins prévisibles et favoriser la réflexion, de manière à ce que les réponses ne soient pas facilement générées par une intelligence artificielle.