S'il existe des raisons valables pour sécher les cours, Molly Klein considérait que la victoire de son frère aux World Series en était une.

Actualités
Réflexions du campus sur l'intelligence artificielle
Sept 11 2024
Le mercredi 11 septembre, trois employés du Goshen College – Alysha Liljeqvist, professeure adjointe de commerce ; Fritz Hartman, directeur de la bibliothèque ; et Luke Beck Kreider, professeur adjoint de religion et de développement durable – ont abordé, lors de la cérémonie de remise des diplômes, l'utilisation de l'intelligence artificielle sur le campus et partagé leurs points de vue. Leurs discours comprenaient les citations suivantes :

LiljeqvistIl nous a fallu 175 ans pour passer de l'invention du télégraphe à un petit oiseau rouge dans une fronde, et seulement sept ans pour passer de ce petit oiseau rouge à la fondation d'OpenAI. C'était très rapide, et c'est ce que nous vivons. C'est à la fois passionnant et un peu écrasant, mais au fond, ce ne sont encore que des uns et des zéros. Imaginez : nous plantons un arbre, mais il n'en est qu'à ses débuts. Le tronc grandit, mais les branches et les feuilles, tout son potentiel, sont encore en développement. L'avenir est passionnant, alors soyez curieux. Essayez sur votre terrain et voyez comment cet arbre grandit.
HartmanEn 1900, il y avait 4,000 21 voitures sur la route et 1920 millions de chevaux. En 1950, il y en avait plus que de chevaux, et en 50, nous avions tous des voitures, en seulement 1913 ans. Mais devinez ce qui s'est passé immédiatement : nous ne savions pas conduire ces voitures. En 33.38, 10,000 personnes mouraient pour 1.5 95 véhicules sur la route. Aujourd'hui, ce chiffre est de XNUMX, soit une amélioration de XNUMX %. Alors, que s'est-il passé ? Le code de la route, lui, l'a fait. Nous avons installé des panneaux de signalisation. Nous avons tracé des lignes sur la route. Nous avons commis un tas d'erreurs stupides, mais nous en avons tiré les leçons, et je pense que c'est ce qui va se passer dans le monde de l'IA. La vitesse va s'accélérer, mais les fondamentaux de la route vont prendre plus d'importance. Nous devrons être capables d’évaluer la qualité de notre matériel source, avoir des normes d’intégrité académique encore plus élevées pour nous-mêmes et avoir au moins une connaissance de base de ce que fait l’IA.
KreiderÉcrire implique de l'empathie, de se mettre à la place de l'autre, d'essayer de voir les choses de son point de vue. Cela implique d'aller à la rencontre de cette personne et de partager quelque chose avec elle. Écrire est un exercice de vulnérabilité, d'empathie et de compréhension de soi, même si l'on n'écrit pas sur soi-même. J'ai donc conseillé à mes étudiants de ne pas utiliser l'IA pour écrire, car je pense que l'objectif principal de l'éducation dans un établissement comme Goshen est de nous permettre de faire ce genre d'exercices : nous faisons des choses qui nous permettent de développer les muscles nécessaires pour devenir de bonnes personnes, éthiquement, socialement, intellectuellement, bien outillées et autonomes. Exprimer ses propres idées avec sa propre voix en est un exemple. Cela développe l'empathie, la vulnérabilité et la compréhension de soi. Donc, de mon point de vue, le principal problème de ChatGPT n'est pas qu'il soit malhonnête, mais qu'il va à l'encontre de l'objectif fondamental d'une éducation aux arts libéraux.
Pour le contexte, le Goshen College a récemment mis à jour sa politique sur l'intégrité académique, en ajoutant ce paragraphe :
L'utilisation de l'intelligence artificielle générative pour réaliser des travaux est également considérée comme du plagiat lorsqu'elle déforme le travail et les idées de l'étudiant. Dans certains cas, les professeurs peuvent autoriser, voire exiger, l'utilisation de l'IA à des fins pédagogiques. Ces exceptions ne s'appliquent que si le professeur a donné son autorisation explicite pour utiliser ces outils. Lorsque l'IA est utilisée comme source d'information, l'étudiant est responsable de la véracité de cette information.
Sous la direction de Robert Brenneman, professeur de justice pénale et de sociologie, les étudiants ont mené une enquête sur l'utilisation de l'IA à GC l'année dernière. Voici quelques statistiques :
- Grossièrement un quart de tous les étudiants de GC interrogés ont utilisé des outils d'IA comme ChatGPT pour terminer leurs devoirs
- Trois quarts des 53 étudiants qui ont utilisé l’IA de cette manière ont l’intention de l’utiliser dans le même but à l’avenir.
- Parmi ces 53 étudiants, que 7.6%. l'utiliser pour terminer des devoirs et les rendre avec seulement des modifications mineures ou aucune, contre 47 % des étudiants à l'échelle nationale.
Pour poursuivre sur la lancée de la cérémonie de remise des diplômes de mercredi et l'évolution de l'utilisation de l'IA au Goshen College, nous avons demandé à divers professeurs et membres du personnel au service des étudiants de partager leur point de vue sur l'intelligence artificielle sur le campus. Voici leurs points de vue :
- Robert Brenneman, professeur de justice pénale et de sociologie et directeur de programme du CJRJ
- Suzanne Ehst, doyenne associée aux études
- Anna Groff, professeure adjointe de communication
- Andrew Hartzler, professeur de comptabilité
- Jesse Loewen, directeur associé de la réussite scolaire
- Kortney Stern, professeure adjointe invitée d'anglais
Les réponses ont été modifiées pour des raisons de longueur et de clarté, mais aucune intelligence artificielle n'a été utilisée dans la création de cet article..
En réponse à l’utilisation de l’IA par les étudiants…
Robert Brenneman (justice pénale et sociologie) : Parfois, c'était très clair, d'autres fois, je le soupçonnais sans pousser l'enquête plus loin. Pour des travaux plus courts et à moindre enjeu, il n'est pas toujours judicieux de confronter un élève si je soupçonne une utilisation inappropriée de l'IA. J'ai dû confronter des élèves à deux reprises, car cela me semblait soit flagrant (pour un travail important et une utilisation problématique), soit suffisamment récurrent pour entraver leur développement rédactionnel.
Jesse Loewen (réussite étudiante) : Je n'ai pas vu d'étudiants l'utiliser, mais j'ai discuté avec eux de leur utilisation de l'IA. L'année dernière, une élève de terminale avait une vague idée du sujet qu'elle souhaitait aborder et a utilisé l'IA pour peaufiner certaines de ses idées en lui demandant d'effectuer x, y et z.
Kortney Stern (anglais) : J'ai eu des cas d'utilisation de l'IA plus « incertains » dans mes cours, notamment avec des étudiants utilisant Grammarly. Un étudiant a rendu une dissertation et j'ai immédiatement ressenti un contraste flagrant de ton, de style et de ton entre cette dissertation et la précédente. Il était convaincu qu'il s'agissait de sa dissertation, mais lorsque la question de l'IA a été soulevée, il a expliqué avoir utilisé un programme demandant aux utilisateurs de télécharger leur texte, et que le programme avait modifié tout le vocabulaire et la syntaxe pour refléter ce qu'il considérait comme « académique ». Ce qui est intéressant dans ce cas, c'est que l'étudiant a bien rédigé la dissertation, mais l'IA a tellement modifié son vocabulaire et sa formulation qu'elle ne correspond plus à son travail original. Je crois que je vois de plus en plus ce type de cas « incertains » que de copies directes et claires générées par l'IA.
Andrew Hartzler (comptabilité) : Il est de plus en plus courant d’utiliser l’IA pour générer des réponses aux devoirs et aux plans d’écriture.
Sur l’utilisation personnelle de l’IA…
Anna Groff (communication) : Je l'utilise davantage pour générer des idées et du contenu plutôt que pour écrire : pour le brainstorming des activités et de la planification des cours, les résumés de livres ou d'autres ressources, la liste des films ou d'autres médias liés à un sujet, la description des sujets semaine par semaine pour un cours, etc.
Jesse Loewen (réussite étudiante) : J'utilise l'IA de Grammarly plusieurs fois par jour pour mes e-mails. J'écris souvent trop. Demander à l'IA de raccourcir mes e-mails, de vérifier la grammaire, etc. me permet de rédiger des e-mails plus professionnels, qui cernent plus rapidement la préoccupation ou le besoin. Surtout lorsque l'e-mail est très détaillé, présente différents points de vue sur un sujet ou inclut une personne « importante », l'IA de Grammarly me permet d'être plus confiant dans ce que j'envoie.
Robert Brenneman (justice pénale et sociologie) : J'ai expérimenté l'IA pour générer des fausses réponses « plausibles » à des questions à choix multiples lors d'un examen. Je l'ai également largement testée pour voir comment les étudiants pourraient l'utiliser. Je lui ai posé une question sur mes propres recherches et elle a inventé de superbes titres d'articles dans des revues inexistantes, tous avec mon nom dessus !
Kortney Stern (anglais) : Personnellement, je n'ai jamais eu recours à l'IA pour ce que j'appelle « externaliser mon travail ». J'en ai discuté avec des amis qui enseignent dans d'autres universités, et j'en connais beaucoup qui le font. Personnellement, j'aime considérer chaque occasion d'écrire comme une occasion de m'exercer. Pour moi, l'art d'écrire est un art qui dure toute une vie, mais ce n'est que mon avis personnel. Je comprends pourquoi certains pensent que, s'ils possèdent déjà les compétences nécessaires, ils pourraient utiliser l'IA pour les aider dans des tâches facilement délégables et accomplies avec précision, comme la rédaction d'un e-mail ou d'un programme.
Suzanne Ehst (doyenne associée aux études) : Dans mon travail, j'ai principalement utilisé des modèles de langage étendu (MLE) comme ChatGPT. Ils ne sont pas toujours utiles. Si j'écris quelque chose de très spécifique au contexte, ces outils produisent généralement du texte trop générique. Cependant, pour des sujets plus généraux, comme la mise à jour de notre politique d'intégrité académique pour y inclure des conseils explicites sur l'IA, les LLM peuvent générer du texte exploitable plus rapidement que moi.
Andrew Hartzler (comptabilité) : Je l'utilise sous forme de Grammarly pour relire mes e-mails et la plupart de mes documents. Je n'ai pas encore utilisé l'IA générative de manière plus intensive.
Sur l’utilisation de l’IA en classe…
Robert Brenneman (justice pénale et sociologie) : J'ai utilisé ChatGPT en cours à deux reprises, où il m'a semblé utile. En Méthodes de recherche, nous lui avons demandé de créer un formulaire de consentement pour notre enquête et il a très bien réussi à produire un texte « standard » que nous pouvions ensuite modifier pour notre propre usage. En Séminaire de Fin d'Études, j'ai demandé aux étudiants d'utiliser une invite d'IA pour générer une lettre de motivation pour une offre d'emploi qu'ils avaient trouvée, et le résultat était d'une beauté époustouflante. Mais après un examen plus approfondi, les étudiants ont réalisé que le contenu était assez générique et peu adapté à leur profil.
Kortney Stern (anglais) : Une activité que j'aime bien faire en classe consiste à demander à une IA d'« écrire un poème, une chanson, un paragraphe, etc., dans le style de l'auteur X ». Ensuite, je demande aux élèves d'observer ce qu'ils remarquent que l'IA détecte. Essaie-t-elle d'imiter des thèmes, des tons, etc. ? Certains de ses choix sont-ils étranges, incorrects ou inappropriés ? Y a-t-il des omissions flagrantes ? Je peux aussi leur demander de générer un poème par l'IA, puis de le « corriger » et/ou de l'utiliser comme point de départ pour compléter.
Andrew Hartzler (comptabilité) : Pour la rédaction, j'utilise la politique actuelle d'IA du Collège. Son utilisation en cours n'est pas aussi pertinente pour mes matières, car les étudiants doivent me montrer sur papier comment appliquer les concepts qu'ils apprennent. Je dirais que notre département est beaucoup plus ouvert à son utilisation que la plupart des autres, et ma collègue Alysha [Liljeqvist] l'utilise beaucoup.
Sur les adaptations professionnelles à l’évolution de l’IA…
Anna Groff (communication) : Je souhaite continuer à l'expérimenter moi-même et trouver des moyens d'inciter les étudiants à l'explorer avec soin et réflexion. Cela peut impliquer de l'intégrer dès la phase de brainstorming pour trouver des idées d'articles, des pistes de recherche, des sources, etc., mais aussi de faire preuve de prudence lors de la rédaction des versions finales des articles/documents. Mon objectif ultime est de lire les pensées et les mots des étudiants dans leurs devoirs ; c'est bien plus important qu'une écriture parfaite. Et je veux les aider à éviter la moindre tentation de l'utiliser pour inventer des citations journalistiques ou des données pour la recherche.
Kortney Stern (anglais) : Personnellement, je suis toujours un peu réticent à accueillir la technologie. Cela dit, je pense qu'il est important que la classe reflète le « monde réel » en termes de contenu, de thèmes, de devoirs et d'outils pédagogiques, comme l'IA. Comme tous les outils (y compris les outils d'apprentissage), l'IA peut être utilisée, détournée ou détournée. Le plus important pour moi est que les étudiants acquièrent d'abord une compétence donnée (comme rédiger une dissertation universitaire, construire une thèse solide, etc.), puis, une fois cette compétence maîtrisée, ils peuvent commencer à jouer avec ses conventions et même se tourner vers l'IA pour trouver des idées de sujets de dissertation ou élaborer un plan, par exemple. Ainsi, je suis plus réticent à soutenir l'utilisation de l'IA dans mes cours de niveau 100, sauf pour une activité en classe, mais je me sens moins restrictif quant à son utilisation en classe et en dehors des cours pour les cours de niveau 300.
Andrew Hartzler (comptabilité) : Je l'utiliserai partout où il améliore l'efficacité de la génération d'exemples en classe grâce à sa capacité à restructurer rapidement le langage et les processus grâce à des invites d'IA. Je pense que c'est un outil plus pertinent pour les cours de langue et de discussion que pour les cours de processus de base, mais pour les cours de processus de niveau supérieur, il pourrait être un excellent outil pédagogique comme générateur d'exemples et moyen d'accélérer la réalisation des processus.
Réflexions générales sur l’IA…
Andrew Hartzler (comptabilité) : C'est comme tout autre outil, utilisable à bon ou à mauvais escient selon les motivations de l'utilisateur. Je crains qu'à des niveaux d'apprentissage inférieurs, il offre aux étudiants un moyen plus efficace de créer l'illusion de comprendre des choses qu'ils ne comprennent pas réellement. Cela les rendra très inefficaces en milieu professionnel ou à des niveaux d'apprentissage supérieurs, car ils ne pourront pas réaliser de tâches nouvelles et plus complexes, faute d'avoir appris les processus et structures de base. Cela dit, les étudiants doivent apprendre à l'utiliser comme outil pour fonctionner efficacement dans des environnements où l'IA est attendue. Il s'agit essentiellement d'un générateur de modèles et d'hypothèses surpuissant. La capacité à distinguer les données d'entrée du résultat escompté sera le point sur lequel le système éducatif devra se concentrer. C'est comme utiliser une calculatrice en mathématiques : elle accélère considérablement le processus, mais si l'utilisateur ne comprend pas les concepts, la calculatrice ne donnera pas le résultat correct.
Robert Brenneman (justice pénale et sociologie) : Je ne cesse de répéter aux étudiants que l'IA ne fera que renforcer la valeur de l'authenticité. Ils devront au minimum maîtriser l'IA. Cela signifie savoir comment et quand l'utiliser à leur avantage. Une grammaire et une prose médiocres seront désormais un fléau. Mais l'authenticité, les valeurs, la passion, la capacité à surprendre et à éveiller les autres par nos idées et nos actions : le « marché » de ces qualités ne fera que croître. L'IA se nourrit de prévisibilité. Les diplômés d'universités de lettres, réfléchis et autocritiques, excellent dans d'autres domaines.
Jesse Loewen (réussite étudiante) : C'est un outil, mais de nombreux étudiants cherchent des raccourcis vers la réussite. C'est donc un danger certain à certains égards. Je pense souvent aux domaines dans lesquels il faut démontrer ses connaissances au quotidien. Faire ses études supérieures en utilisant l'IA sans jamais vraiment mettre ses compétences à profit, etc., m'inquiète pour les générations futures. L'IA continue d'évoluer, et nous devons en parler avec les étudiants et le personnel à tous les niveaux de l'enseignement.
Suzanne Ehst (doyenne associée aux études) : Les nouveaux outils suscitent de nombreuses discussions intéressantes dans l'enseignement supérieur, et nous devons les entretenir. Il y a tant de sujets importants et multidisciplinaires à aborder ici, et une université d'arts libéraux est un lieu idéal pour intégrer nos différents domaines d'expertise : préparation à l'emploi, utilisation éthique, enseignement et apprentissage, et maîtrise de l'information, pour n'en citer que quelques-uns. C'est à la fois intimidant et passionnant.
Kortney Stern (anglais) : Si j'étais reine d'un jour, ma vision serait de sortir l'utilisation de l'IA de l'ombre. Actuellement, je pense que l'on part du principe que l'IA est synonyme de plagiat. En réalité, l'IA engendre souvent des zones d'ombre, comme mon exemple concernant la façon dont l'IA a modifié la voix de mon élève. Je pense que ce serait une discussion très productive : quel est le ton à l'écrit ? Comment reconnaît-on la voix sur le papier ? Quand une voix d'écriture ne nous appartient-elle plus ? Ce sont d'excellentes discussions qui pourraient avoir lieu, mais qui sont souvent interrompues par la peur de l'IA, tant en termes d'utilisation que de sanctions potentielles. J'aimerais que nous puissions avoir un dialogue ouvert avec les étudiants. Comment l'utilisent-ils ? À quelle fréquence ? Dans quels types de cours ou de devoirs ? L'ont-ils davantage utilisé en première année et moins en deuxième cycle ? Quand estiment-ils avoir « dépassé les bornes », si tant est qu'il y en ait une. J'aimerais connaître leur point de vue. La seule façon d’avoir ce genre de transparence ouverte est qu’ils ne craignent pas de répercussions. Nous, les instructeurs, devons donc également être ouverts à l’écoute avant de supposer ou d’agir.
En terminant, Jesse Loewen a ajouté une nouvelle perspective à la conversation :
Lors d'une discussion sur les étudiants dont l'anglais n'est pas la langue maternelle, un collègue m'a rétorqué qu'ils devraient utiliser l'IA si l'anglais n'est pas leur langue maternelle. Je partais du principe qu'il fallait utiliser l'IA pour des tâches basiques, certes, mais pour vraiment apprendre et comprendre une langue, je sentais qu'il fallait adopter une approche différente. Cette conversation me reste gravée dans la mémoire, car je ne connais pas la meilleure voie pour apprendre une langue.
On peut aussi imaginer qu'une personne non anglophone entre dans un fast-food et sort son téléphone. Elle utilise l'IA pour commander. Bien sûr, ça peut marcher. Cependant, je me suis dit que cette personne pourrait vouloir arriver à un stade où elle n'aurait plus besoin de son téléphone pour commander. Elle aurait appris la langue ou aurait eu suffisamment confiance en elle pour commander parce qu'elle la comprenait. Peut-être a-t-elle suivi des cours d'anglais comme ceux que nous proposons à l'université, ou peut-être a-t-elle bénéficié d'un accompagnement personnalisé. J'y réfléchis peut-être trop, mais je suis vraiment curieuse de savoir ce que préfèrent ceux qui apprennent l'anglais. Quelle est leur préférence ? Utiliser leur téléphone pendant les 20 prochaines années ou apprendre vraiment la langue ? Si l'on travaille dans un domaine spécifique, avoir un téléphone comme traducteur/IA n'est pas idéal si l'une des alternatives est d'aider cette personne à apprendre la langue. C'est une question à méditer.
Luc Kreider, le dernier orateur de la convocation, a conclu son discours avec ce passage.
Certains d'entre vous ont vu le film Oppenheimer l'année dernière sur la création de la bombe atomique. Ce film montre la réalité historique. Une fois la bombe construite, ne pas l'utiliser devient irrationnel. Une fois la technologie utilisée, il devient insensé, voire dangereux, de ne pas en construire davantage et de plus grandes – et parfois, de les utiliser. On m'en a donné de nombreux exemples : une fois la technologie créée, il faut l'utiliser. Je sais que l'IA n'est pas une arme nucléaire, mais cette coercition technologique m'inquiète. Serons-nous finalement contraints de l'utiliser et de la façon dont nous l'utiliserons ? Quel sera le coût de cette conversion ? Pour moi, l'une des tâches humaines les plus précieuses, les plus moralement significatives et les plus profondes de la vie est de comprendre ce que nous pensons réellement, ce que nous voulons dire aux autres. À mon avis, l'un des plus grands risques moraux de l'IA est qu'il pourrait devenir extrêmement tentant, voire nécessaire, de laisser les robots penser à notre place, et donc de les laisser faire tout le travail dont nous avons besoin pour maintenir notre capacité à penser par nous-mêmes, à porter des jugements, à prendre des décisions et à tirer des conclusions, à penser avec nos émotions et notre corps, et à penser en dialogue avec le corps et les autres êtres humains. Je pense qu'en tant que communauté universitaire, nous devrions réfléchir à la manière d'utiliser l'IA de manière à nous soutenir et à cultiver nos valeurs fondamentales, en développant les capacités essentielles pour le type de vie que nous souhaitons.


