Auteur : griemetic_admin

La grille d’évaluation descriptive: un outil précieux en contexte d’enseignement à distance

Par Patricia Vohl (Univrersité de Montréal)

Selon Durand et Chouinard (2006/2012), une grille d’évaluation descriptive « fournit des renseignements descriptifs en ce qui concerne une performance observée et la situe par rapport à une performance attendue » (p.276). La Figure 1 qui suit est un exemple de ce qu’est une grille d’évaluation descriptive.

Figure 1. Exemple d’une grille d’évaluation descriptive tirée d’un cours de recherche et analyse quantitative.

Utiliser une telle grille comporte de nombreux avantages, aussi bien avant et pendant la réalisation d’une activité d’apprentissage, qu’au moment d’évaluer et de transmettre la rétroaction aux étudiants. Avant la réalisation d’une activité d’apprentissage, la grille d’évaluation descriptive permet à l’enseignant de préciser ses attentes en regard de l’activité à venir, puis de les communiquer clairement aux étudiants.Quand vient ensuite le temps de réaliser l’activité, la grille d’évaluation favorise l’autonomie chez les étudiants : elle leur permet d’ajuster leur production afin de répondre adéquatement aux attentes et elle leur sert d’aide-mémoire. Quand vient le moment d’évaluer, l’enseignant n’a qu’à encercler ou surligner les éléments de la grille les mieux adaptés à la production de chacun des étudiants afin de leur fournir, en peu de temps, une rétroaction détaillée, tout en garantissant l’uniformité du processus. Pour l’ensemble de ces raisons, la grille d’évaluation descriptive nous apparaît un outil d’évaluation à privilégier, particulièrement dans les situations où les défis liés à la communication sont grands, comme tel est le cas dans le contexte de la pandémie actuelle.

Ce court texte a pour objectif d’expliquer comment construire une grille d’évaluation descriptive. Pour ce faire, il sera divisé en deux parties. Dans la première, nous présenterons les quatre composantes d’une grille d’évaluation descriptive, puis dans la seconde nous proposerons quatre étapes afin d’obtenir une grille d’évaluation descriptive complète.

Les composantes d’une grille d’évaluation descriptive (Stevens et Levi, 2005)

Les composantes d’une grille d’évaluation descriptive sont les suivantes : une description de la tâche, une liste des dimensions/critères d’évaluation, une liste des niveaux de performance, et enfin une description, pour chaque dimension/critère, de chacun des niveaux de performance attendu (voir Figure 2).

Figure 2. Les composantes d’une grille d’évaluation descriptive, inspiré de Stevens et Levi (2005)

Alors que la description de la tâche se veut une formulation claire, précise et complète de l’activité d’apprentissage proposée, la liste des dimensions/critères rassemble quelques-unes des habiletés/connaissances qui sont nécessaires pour réaliser la tâche proposée ou les critères qui serviront à l’évaluer. Une grille contient en général entre 3 et 5 dimensions/critères d’évaluation. En ajoutant des pondérations aux dimensions/critères, la grille permet d’indiquer clairement leur niveau de priorisation. La liste des niveaux de performance contient habituellement entre 3 et 5 catégories, bien que certaines grilles en contiennent une seule. La Figure 1 est une grille constituée de 3 dimensions/critères et 4 niveaux de performance.

La description, pour chaque dimension/critère, de chacun des niveaux de performance attendu illustre « […] en termes observables, les caractéristiques et les propriétés d’une performance à chacun des niveaux donnés […]» (Durand et Chouinard, 2006/2012, p.283). Pour Durand et Choinard (2006/2012), chaque critère/dimension peut être relié à une qualité (clarté, variété, suffisance, pertinence, conformité, justesse, exactitude, efficacité, intensité, complétude, finesse, logique, organisation, structure ou encore richesse). Cette qualité peut ensuite être « modulée » (p. 284) afin de décrire chacun des niveaux de performance.

Pour clore cette section, il est important de mentionner que, pour qu’une grille soit efficace, les descriptions doivent respecter deux critères : elles doivent être exhaustives (prévoir tous les cas de figure) et  mutuellement exclusives (ne pas se recouper) (Wiggins, 1998; Beckers, 2002, cités dans Durand et Chouinard, 2006/2012). Cela permet en effet de situer le niveau de performance observé de chacun des étudiants de manière non-équivoque.

Démarche d’élaboration d’une grille d’évaluation descriptive

Afin d’élaborer une grille d’évaluation descriptive, 4 étapes sont proposées par Stevens et Levi (2005). Celles-ci vont comme suit.

  1. Réfléchir – Réfléchir aux objectifs du cours, à l’activité d’apprentissage demandée, aux objectifs de cette activité, aux connaissances préalables des étudiants, aux expérience antérieures vécues avec cette tâche, ainsi qu’aux qualités importantes attendues en ce qui a trait aux performances.
  2. Faire des listes et rédiger des descriptions – Faire la liste des objectifs visés par le cours ainsi que par l’activité d’apprentissage, décrire ce que serait, de manière générale, le plus haut niveau de performance attendu.
  3. Faire des regroupements – À partir du contenu rédigé à l’étape 2, regrouper les idées communes. Cela permet en général d’obtenir les dimensions/critères d’évaluation de la grille, la ou les qualités associées à chaque dimension/critère, puis la description du plus haut niveau de performance attendu, pour chaque dimension/critère.
  4. Produire la grille –Indiquer la description de la tâche, les dimensions/critères d’évaluation, les niveaux de performance et la description du plus haut niveau de performance. À partir du plus haut niveau de performance, décrire le plus bas (souvent en y allant par la négative ou en dressant la liste des erreurs typiques), puis s’inspirer de ces deux descriptions pour rédiger les autres. Au besoin, ajouter des pondérations aux critères/dimensions.

Dans ce court texte, nous avons présenté « la grille d’évaluation descriptive ». Nous sommes d’avis que cet outil d’évaluation peut s’avérer fort utile en contexte d’enseignement à distance puisqu’il facilite l’échange d’information entre l’enseignant et les étudiants, en plus de favoriser l’autonomie chez ces derniers. Nous avons mentionné les composantes de cet outil et proposé des étapes afin les créer. Les lecteurs intéressés à aller plus loin sont invités à consulter les textes suivants :

Stevens, D. D., & Levi, A. J. (2005). Introduction to rubrics: An assessment tool to save grading time, convey effective feedback, and promote student learning. Stylus Publishing, LLC.

Durand, M.-J. et Chouinard, R. (2012). L’évaluation des apprentissages : de la planification de la démarche à la communication des résultats. Éditions Marcel Didier inc.

[citationic]

Utiliser des questions à choix multiples pour automatiser la rétroaction

Nathalie Loye, Université de Montréal

Dans les cours à distance, établir un contact régulier et de qualité avec les apprenants pose de réels défis. Par exemple, le fait de fournir une rétroaction aux étudiants, qu’elle soit individuelle ou collective, fait partie naturellement des cours en présentiel. Dans le cas des cours à distance, il faut planifier les manières de guider les apprentissages de manière efficace. Les options technologiques qui permettent des échanges individuels et collectifs sont nombreuses. Les courriels, les échanges de travaux écrits que le professeur peut annoter, les rencontres en visioconférence, l’utilisation du chat ou d’un forum sont des exemples qui permettent de telles interactions. Tous ces exemples demandent toutefois un travail important au professeur et dans certains cas l’effort cognitif nécessaire pour rencontrer les étudiants en grand groupe, sous-groupes ou de manière individuelle est grand pour chacun des participants.

Nous proposons ici d’utiliser les technologies afin d’automatiser certaines tâches de rétroaction aux étudiants. L’une des possibilités consiste en effet à proposer des questions à choix multiples aux étudiants en considérant que chaque choix de réponse est (1) assorti d’un commentaire explicatif automatique lorsqu’il est choisi et (2) corresponde à des erreurs propices à fournir des explications utiles pour guider les apprentissages.

Nous nous inspirons ici de la méthode proposée par King et collègues en 2011. Ces auteurs proposent un guide pour élaborer et apprécier les choix de réponse dans des questions à correction objective. Leur visée est diagnostique puisqu’ils proposent

  • de faire des listes d’erreurs possibles et de s’en inspirer pour rédiger des choix de réponse,
  • puis d’identifier les raisons des erreurs et de les organiser en une taxonomie.

Le tableau 1 illustre une telle taxonomie comportant 4 niveaux pour la compréhension d’un élève en lecture, les niveaux sont ordonnés en commençant par une compétence peu développée pour aboutir à une compétence développée permettant de trouver la bonne réponse.

Tableau 1. Exemple de taxonomie en lecture (King, et al., 2004, p. 6 – traduction libre)

Niveau de compréhension de l’élèveErreurs de l’élève
Niveau 1Erreurs en lien avec le décodage du texte.
– Connaissance préalable non basée sur la lecture du texte
– Information tirée du texte, mais pas reliée à la question
Niveau 2Erreurs témoignant d’une certaine compréhension du texte
-Incapacité à relier les informations entre elles
– Conclusion ou inférence erronée
Niveau 3Erreurs témoignant d’un niveau de réflexion et d’interprétation
-Propose une partie de la bonne réponse
-Vision trop étroite ou trop large
Niveau 4Réponse correcte

Ils proposent ensuite des exemples de questions dans lesquels les choix sont catégorisés dans l’un ou l’autre des niveaux (traductions libres).

Exemple 1

Exemple 2

Exemple 3

Personnellement j’utilise cette approche dans mon cours de méthodes quantitatives en ligne aux cycles supérieurs. Dans la plateforme (StudiUM), j’utilise les choix multiples de manière formative sans qu’ils fassent partie de l’évaluation du cours. Chaque choix correspond à un commentaire, certaines questions peuvent avoir plus de choix de réponse que d’autres, et j’autorise les étudiants à revenir sur leur réponse après avoir reçu le commentaire de manière à les laisser libres de naviguer dans les commentaires. Il est vrai qu’il y a un certain travail pour organiser cette évaluation formative, mais par la suite la rétroaction se fait sans mon intervention.

Références

King, K.V., Gardner, D.A., Zucker, S. & Jorgensen, M.A. (2004).. The distractor rationale taxonomy: Enhancing multiple-choice items in reading and mathematics. Assessment report available from Pearson education at: https://images.pearsonassessments.com/images/tmrs/tmrs_rg/Distractor_Rationales.pdf?WT.mc_id=TMRS_The_Distractor_Rationale_Taxonomy_Enhancing

[citationic]

Surveiller ses étudiants à distance pendant un examen

Nathalie Loye et Pierre Gignac

Lorsqu’un professeur donne un cours à distance, l’évaluation soulève de très nombreux défis. L’un de ces défis consiste à contrôler la passation des examens. Dans un cours en présentiel, généralement le professeur, ses assistants ou des surveillants engagés spécialement pour ce travail, assurent la surveillance de la salle d’examens. Ils peuvent ainsi contrôler l’identité des étudiants, s’assurer qu’ils ne communiquent pas entre eux et ne trichent pas. Ils peuvent également éviter qu’ils ne gardent des traces des questions d’examen en contrôlant le matériel auquel ils ont accès (par exemple : interdire les téléphones, fournir les copies et les feuilles de brouillons et tout ramasser à la fin de l’examen). Ce type d’examen prend le plus souvent la forme d’examens écrits constitués de questions à correction objective comme des questions à choix multiples ou dont les réponses nécessitent un développement plus ou moins long (par exemple : problèmes complexes, réflexions critiques, études de cas, etc.).

D’un point de vue pratique, ce type d’examen peut facilement être proposé à distance aux étudiants. Une variété de plateformes utilisées pour l’enseignement (aussi appelées LMS pour Learning Management System; par exemple Moodle, StudiUM) ou de plateformes dédiées (par exemple ExamSoft ou Netquiz) permet d’y reproduire les questions et de les soumettre aux étudiants à un moment choisi, avec un accès individuel et pendant une durée contrôlée. Dans le cas de questions à réponses objectives, ces plateformes assurent en outre la correction de manière automatique.

La question qui se pose est de savoir comment s’assurer de l’identité des étudiants, et surveiller la passation de l’examen comme on le ferait dans la salle d’examen. C’est ce qu’on appelle le proctoring.

Le proctoring est un processus qui permet de superviser les étudiants qui passent un examen à distance en utilisant une caméra vidéo, un enregistrement du son et un accès à leur écran. Cette surveillance peut se faire de trois manières :

  • Par un humain en temps réel en utilisant l’audio, la vidéo et le partage d’écran,
  • Par un humain qui a accès par la suite aux enregistrements audio, vidéo et de l’écran,
  • De manière automatisée grâce à l’analyse des données massives (analytics) générées par la surveillance audio, vidéo et des écrans.

Des logiciels comme SafeExamBrowser[1] peuvent en outre prendre le contrôle de l’ordinateur des étudiants pendant la passation de l’examen afin de le transformer en un poste de travail sécurisé. Ces logiciels peuvent par exemple bloquer la navigation sur Internet ou l’impression, contrôler les menus accessibles, empêcher de lancer d’autres applications durant la passation de l’examen ou de prendre des captures d’écran (voir Foster, 2013 pour plus de détails). Cette surveillance est un créneau lucratif que de nombreuses entreprises exploitent, il existe en conséquence de multiples options, dont la plupart sont payantes et dont le coût dépend souvent du nombre d’étudiants à surveiller.

Le tableau 1 montre cette variété et regroupe divers classements disponibles sur le web (liens en fin d’article).

Note. Les classements dans le tableau sont à titre informatif, et dépendent des critères utilisés par l’évaluateur. Consulter le site de l’évaluateur pour les détails.

Le site de METTL[2]  propose une comparaison des caractéristiques de 5 logiciels souvent mentionnés. Le tableau 2 présente certaines de ces caractéristiques. Il met en évidence la variété de ces logiciels de surveillance.

Tableau 2. Comparaisons de 5 logiciels en fonction de quelques caractéristiques (traduction libre)

Caractéristiques du proctoringPSIMETTLPROCTORUEXAMITYVERIFICIENT
Utilisation de l’IA (Analytics)NonOuiMinimaleMinimaleOui
Intégration au LMSOuiOuiOuiOuiOui
Authentification des candidats en 3 pointsMinimalOuiMinimalNonOui
Enregistrement et accès ultérieurOuiOuiOuiOuiOui
Surveillance par un humainOuiOuiNonNonNon
Rapport automatiqueOuiOuiOui
Production d’un score d’intégritéNonOuiNonNonOui
Blocage des fureteurs de l’ordinateurOuiOuiOuiOuiOui

Il est clair que l’utilisation de tels logiciels pose de nombreux défis techniques notamment liés à l’intégration informatique au LMS ou à la plateforme utilisée pour l’examen. En conséquence, elle dépend généralement des institutions plutôt que des choix personnels des professeurs. Il est toutefois utile pour eux de savoir que de telles solutions technologiques existent.

En outre, les professeurs ne doivent pas oublier que mettre en pratique des stratégies préventives pour assurer l’intégrité est aussi très important, que l’on ait ou pas recours au proctoring. Ainsi assigner les questions de manière aléatoire aux candidats ou selon un ordre aléatoire permet d’éviter que les étudiants communiquent entre eux pour partager leurs réponses pendant l’examen, limiter le temps de réponse, empêcher les étudiants d’entrer plusieurs fois dans le même examen, ajouter au moins une question nécessitant un développement et varier le type de question sont aussi des stratégies à considérer dans les examens[3]. Ces stratégies sont utiles pour limiter les possibilités de tricherie[4].

Sites utilisés pour le classement des applications de proctoring

Best Online Exam Proctoring Software to Look Up

Top ten (11 listed) online test software solutions

Online Proctoring Services for Higher Education market

Best Exam Software for your business.

Best online Exam Software with remote proctoring

Références

Alessio, H. M., Malay, N., Maurer, K., Bailer, A. J., & Rubin, B. (2017). Examining the effect of proctoring on online test scores. Online Learning, 21(1), 146-161.

Daffin, Jr., L.W., & Jones, A.A. (2018). Comparing student performance on proctored and nonproctored exams in online psychology courses. Online Learning, 22(1), 131-145. doi:10.24059/olj.v22i1.1079

Foster, D. (2013) Online Proctoring Systems Compared, Caveon Test Security, Harry Layman, The College Board. Accessible à https://scholar.google.ca/scholar?hl=fr&as_sdt=0,5&q=%22Online+Proctoring+Systems+Compared%22

Steger, D., Schroeders, U., & Gnambs, T. (2020). A meta-analysis of test scores in proctored and unproctored ability assessments. European Journal of Psychological Assessment, 36(1), 174–184. https://doi.org/10.1027/1015-5759/a000494

Weiner, John A., & Gregory M. Hurtz. (2017). A comparative study of online remote proctored versus onsite proctored high-stakes exams, Journal of Applied Testing Technology 18(1), 13-20.

références

Reisenwitz, T. H. (2020). Examining the Necessity of Proctoring Online Exams. Journal of Higher Education Theory and Practice20(1).

Heilporn, G., & Denis, C. (2020). Dispositifs d’évaluation en ligne: des recommandations de la littérature scientifique à des décisions précipitées en pratique. e-JIREF, (1), 165-172. http://journal.admee.org/index.php/ejiref/article/view/229

Woldeab, D., & Brothen, T. (2019). 21st Century assessment: Online proctoring, test anxiety, and student performance.

Whitepaper online proctoring (avril 2020, donne des enjeux à considérer, du moins selon la table des matières) https://www.surf.nl/en/white-paper-online-proctoring-questions-and-answers-about-remote-proctoring

Report on Remote Assessment Procedures. Impact Study and Recommendations on the Implementation of Remote Assessment Procedures in Spanish Universities (avril,2020, discute d’évaluation en ligne, pas de proctoring ) https://library.educause.edu/resources/2020/4/report-on-remote-assessment-procedures


[1] https://safeexambrowser.org/about_overview_en.html

[2]  https://blog.mettl.com/assessment-technology/top-5-proctoring-solution-providers

[3] https://www.memphis.edu/um3d/resources/assessments.php

[4] Voir la section sur la tricherie dans ce site.

[citationic]

Quelques avenues pour prévenir le plagiat

Sébastien Béland (Université de Montréal)

Isabelle Cousineau (Université du Québec à Montréal))

Le plagiat est un vol d’idée. L’Université de Montréal définissait d’ailleurs ce manque d’intégrité académique de la façon suivante : « Le plagiat est l’acte de faire passer pour siens les textes ou les idées d’autrui, volontairement ou non ». Se pose alors la question : est-ce grave? On peut aisément le deviner : les philosophes qui s’intéressent à la morale sont généralement contre l’idée du plagiat. Reprenons les sages paroles d’Emmanuel Kant : « agis de telle sorte que la maxime de ta volonté puisse toujours valoir en même temps comme principe d’une législation universelle (1888, p. 50) ». Pour le dire autrement, agis de telle sorte que la maxime (ou le motif) qui guide l’action d’un individu soit universalisable et valable pour toute l’humanité. Le concept de législation universelle est intéressant puisqu’il permet de mettre en lumière le caractère immoral du plagiat lors d’une évaluation des apprentissages qui se veut juste, égale et équitable. En effet, si tous les étudiants (ce que Kant entend par « humanité »), que nous supposons raisonnables, plagient à un travail de session, alors l’évaluation devient contradictoire et elle n’a plus de sens. Plagier n’est donc pas seulement enfreindre les règles, c’est aussi détruire l’idée même de règles communes. Hubick (2016) va plus loin : le plagiat viole l’expérience d’apprentissage authentique. Et celui qui plagie trompe surtout ses collègues de classe et porte atteinte à la réputation du diplôme délivré par son institution d’enseignement.

Pourquoi plagier?

Il y a évidemment une dimension intentionnelle derrière le plagiat. Par exemple, un étudiant peut vouloir plagier pour atteindre certains buts qu’il s’est fixés (Hubick, 2016) ou pour sauver du temps à cause d’une charge de travail élevée (Theart et Smit, 2012). Mais, il y a plus : le plagiat peut aussi être un acte involontaire. Belter et du Pré (2009) nous montraient que les étudiants sont nombreux à ne pas savoir comment bien citer. Même constat du côté de Kier (2014) : un peu plus de la moitié des étudiants ont été en mesure de bien reconnaître une série de phrases plagiées.

Il est impossible d’omettre le fait que la perception du plagiat a aussi une dimension culturelle importante. Bloch (2008) rapportait que « the link between originality and ownership, which often shapes the moral metaphors regarding “theft” related to discussions of plagiarism in the West, may not be as clear-cut in Chinese culture » (p. 220) Ainsi, le fait de reprendre les mots d’un auteur sans lui attribuer la paternité est un acte éminemment complexe.

Quoi faire pour prévenir le plagiat?

L’évaluateur qui a trouvé des sections plagiées dans un travail se bute parfois à l’étonnement sincère des étudiants. Il est donc important, selon nous, d’utiliser notre jugement professionnel en présence de plagiat. Ainsi, l’étudiant en est-il à sa première offense? Est-il un récidiviste? Comment explique-t-il la présence de plagiat dans son travail? À l’évidence, il n’y a pas de réponse facile, ici.

Les universités ont des règlements pour décourager les tentations de plagiat. Le GRIÉMÉtic croit que sensibiliser les étudiants à la problématique du plagiat est une stratégie à favoriser. Nous devons faire de nos étudiants de meilleurs méthodologues et, ce, le plus rapidement possible dans leur cheminement scolaire.

Il y a plusieurs avenues qui peuvent être adoptées. D’abord, il est possible de faire signer un code d’honneur aux étudiants en les encourageant à adopter une attitude d’intégrité académique dans le cours. Ce code d’honneur peut généralement tenir sur une seule page et pourrait être inséré, en annexe, des travaux déposés dans un cours.

Une autre alternative à explorer est le fait de rendre disponible de courts modules de formation en ligne sur le plagiat. Ceux-ci pourraient être accrochés aux plateformes utilisées dans chacun des cours et pourraient être même obligatoires pour les étudiants qui sont en première année d’un programme d’études.

Il existe de nombreux logiciels de détection (gratuits ou payants) permettant de détecter le plagiat dans les travaux scolaires. Nous croyons que leur utilisation est une bonne idée lorsque, par exemple, le style d’écriture dans un travail change radicalement sans raison valable. Pourquoi ne pas avertir les étudiants que vous allez utiliser un tel logiciel afin de tenter de décourager de potentiels plagieurs? Le lecteur curieux pourra consulter une liste non-exhaustive de ces logiciels, en annexe.

Enfin, il faut se questionner sur le rapport à la performance dans nos établissements d’enseignement. C’est un secret de polichinelle que l’anxiété de performance pousse certains étudiants à plagier. Une bonne façon de maîtriser ce type de « dérapage » est de proposer des évaluations formatives aux étudiants. En leur offrant des pistes de remédiation durant le processus de production d’un travail, il est plus facile d’intervenir pour sensibiliser les étudiants à de bonnes pratiques méthodologiques. L’utilisation de l’évaluation formative peut avoir comme effet de faire augmenter la moyenne des notes et réduire leur variance, mais le problème du plagiat doit être traité de façon sérieuse.

Références

Belter, R.W. & du Pré, A. (2009) A strategy to reduce plagiarism in an undergraduate course. Teaching of Psychology, 36, 257-261.

Bloch, J. (2008). Plagiarism across Cultures: Is There a Difference? In (Ed. Caroline Eisner, Martha Vicinus). Originality, Imitation, and Plagiarism. University of Michigan Press.

Hubick, J. (2016). A philosophical response to plagiarism. Teaching philosophy, 39, 453-481.

Kant, E. (1888). Critique de la raison pratique, Consulté le 29 avril 2019, URL : https://gallica.bnf.fr/ark:/12148/bpt6k5500006p/f112.item.r=triche

Kier, C. (2014). How well do Canadian distance education students understand plagiarism? The International Review of Research in Open and Distance Learning, 15, 227-248.

Theart, C. J., & Smit, I. (2012). The status of academic integrity amongst nursing students at a nursing education institution in the Western Cape. Curationis, 35, 27.

[citationic]

Annexe

NomStatutInformations généralesLien
EduBirdieGratuitDétecteur de plagiat sur le web :
– Rapport de détection
https://ca.edubirdie.com/logiciel-anti-plagiat
PlagiarismaGratuitDétecteur de plagiat sur le webhttp://plagiarisma.net
Search Engine ReportsGratuitDétecteur de plagiat sur le web :
– Rapport de détection
https://searchenginereports.net/fr/plagiat
Small SEO ToolsGratuitDétecteur de plagiat sur le webhttps://smallseotools.com/fr/plagiarism-checker/
PlagTrackerGratuitDétecteur de plagiat sur le web :
– Rapport de détection
https://www.01net.com/services-en-ligne/plagtracker-119921/
PlagGratuit ou payantDétecteur de plagiat sur le web :
– Rapport de détection
– Correspondance en surbrillance
– Sources visualisables
– Détection de paraphrases et de mauvaises citations
https://www.plag.fr
Plagiarism DetectorGratuit ou payantDétecteur de plagiat sur le webhttps://plagiarismdetector.net/fr
ScribbrPayantDétecteur de plagiat sur le web :
– Sources Internet, publications académiques
– Rapport de détection interactif
https://www.scribbr.fr
TurnitinPayantDétecteur de plagiat sur le web :
– Sources Internet et contenu académique
– Outil de recherche d’auteurs
https://www.turnitin.com/fr

Documents d’aide (anglais uniquement) :
https://help.turnitin.com/ithenticate/ithenticate-home.htm
CompilatioPayant
*Démonstration gratuite
Prévention et détection de plagiat :
– Sources Internet et vos propres documents
– Rapport de détection
https://www.compilatio.net
UrkundPayant
*Démonstration gratuite
Aide à prévenir le plagiat (comment empêcher le plagiat)
– Quizz, conseils et guide sur le plagiat
https://www.urkund.com/fr/urkund-pour-les-etudiants/
Urkund – Enseignement supérieurPayant
*Démonstration gratuite
Système de prévention du plagiathttps://www.urkund.com/fr/urkund-pour-lenseignement-superieur/
PlagScanPayant
*Essai gratuit
Détecteur de plagiat sur le web :
– Sources Internet, revues scientifiques et vos propres documents
– Rapport de détection
– Identification des sources
https://www.plagscan.com/analyse-de-plagiat/?gclid=CjwKCAjwltH3BRB6EiwAhj0IUNA-GKJfV6ucLXI6HocgVRPJrChTsxt2uPsLodcifXQTGvYhI0etAhoCwzwQAvD_BwE

Présentation d’une modalité d’évaluation inclusive en présentiel ou en ligne : une tâche complexe et authentique selon les principes de la CUA

Micheline Joanne Durand, professeure, Université de Montréal

mj.durand@umontreal.ca

L’application des pratiques de la CUA dans la mise en place d’une tâche complexe d’apprentissage et d’évaluation a été proposée aux étudiants des programmes en formation des maîtres inscrits au cours ETA1250 à partir de l’année 2015-2016. Il s’agit d’une tâche où les trois principes de la CUA (cités précédemment) sont utilisés de façon interreliée. Le déroulement du développement de cette modalité d’évaluation sera décrit ainsi que les ajustements apportés au cours des années suivantes où le cours s’est donné en présentiel et en ligne.

L’élaboration de cette tâche complexe s’est réalisée avec une équipe de chargés de cours accompagnée d’un membre des services à l’enseignement de l’université ainsi que de la chercheure. Il s’agissait de concevoir des modalités d’évaluation qui répondraient aux exigences du cours c’est–à-dire : Compréhension des enjeux actuels de l’école québécoise en rapport avec les finalités, la nature et la démarche de l’évaluation. Appropriation critique des différents documents ministériels prescrits. Lors de la première mise à l’essai du nouveau cours ETA1250, un des modalités d’évaluation prenait la forme d’une activité synthèse individuelle qui permettrait de cerner la compréhension des étudiants des enjeux actuels de l’évaluation au Québec. Elle avait une pondération de 40%. Il s’agissait de réaliser une carte conceptuelle sur une feuille de format ledger (279 x 432 mm ou 11,0 x 17,0 po) lors de la dernière séance de cours, d’une durée de trois heures, en salle de classe sous la supervision de l’enseignant. Toutes les notes de cours ainsi que le manuel du cours pouvaient être consultés. Différents problèmes sont ressortis notamment dans le questionnaire administré par l’université relatif à l’évaluation de l’enseignement. Ce qui a mené l’équipe des chargés de cours, à la suite de la première année d’expérimentation, a apporté quelques ajustements aux modalités d’évaluation inscrites dans le Plan de cours.

Premièrement, certains étudiants ont exprimé un sentiment d’insatisfaction car ils se sentaient comprimé dans les trois heures du cours (durée) dans un local où la place occupée est restreinte et où les conditions climatiques n’étaient pas toujours favorables en cas de chaleur intense ou froidure, par exemple, (environnement). Il a alors été convenu que la tâche à réaliser pourrait être effectuée en dehors des séances de cours en classe pour laisser le temps nécessaire à l’étudiant de remettre un travail de qualité dans un environnement plus serein.

Deuxièmement, la carte conceptuelle amène l’étudiant à représenter de différentes façons les concepts et les liens entre eux. Plusieurs manipulations sont nécessaires pour en arriver à une illustration satisfaisante. Les étudiants considéraient que le crayon et l’efface n’étaient pas toujours les meilleurs outils pour remettre un travail propre qui représentait bien leur carte conceptuelle. L’utilisation de fiches autocollantes (Post-it) pouvait améliorer la situation mais ce matériel n’était pas indiquer au départ dans les consignes. Après discussion avec les chargés de cours, il a été recommandé que, les étudiants puissent intégrer les technologies et réaliser leur carte conceptuelle à l’aide d’un logiciel tel que Cmap tool. Cette formalité ajoutée à la précédente rendait les étudiants plus efficaces car ils pouvaient utiliser leur équipement personnel pour réaliser le travail demandé selon la durée et l’environnement souhaité.

Troisièmement, la carte conceptuelle est certes un bon instrument pour évaluer les étudiants (Tardif, 2006, Morin, 2018) mais tous ne sont pas familiers et à l’aise avec ce type de représentation. Le niveau d’engagement de l’étudiant variant selon sa motivation et celle-ci est plus grande lorsque l’étudiant a le choix de ses travaux. Il a alors été convenu que trois modalités d’évaluation seraient proposées ce qui permettrait de mobiliser des ressources différentes (affective, conative, cognitive ou métacognitive.) mais qui seraient évaluées selon les mêmes exigences. La figure suivante, Figure 1, illustre ce qui a été proposé aux étudiants inscrits au cours ETA1250, depuis la deuxième année d’expérimentation, soit l’année scolaire 2016-2017. Cette nouvelle proposition était accompagnée d’une grille d’évaluation où l’étudiant pouvait s’assurer des exigences requises pour chacun des critères d’évaluation. Elle était disponible dès le début de la session et les étudiants ont eu la possibilité, pendant les foires aux questions en début de chaque cours (FAQ), de poser des questions d’éclaircissement ou de compréhension pendant toute la durée de la session. L’enseignant avait l’occasion, de cette manière, de réguler les apprentissages des étudiants et de les conforter ou confronter dans leurs façons de faire. Le travail était à remettre à la fin du dernier cours sur la plateforme du cours.

Consignes aux étudiants :
Le travail de session a pour but d’évaluer votre compréhension des enjeux actuels de l’évaluation des apprentissages dans le système scolaire au Québec. Vous pouvez choisir entre trois formats : la carte conceptuelle, la réflexion critique ou le feuillet d’information pour répondre à la question : Sur quoi est basée l’évaluation des apprentissages dans le système scolaire au Québec? (autrement dit, qu’est-ce qu’on évalue aujourd’hui? pourquoi on l’évalue? comment peut-on l’évaluer?
1-      Pour la carte conceptuelle : Sélectionnez les 30 concepts (notions) les plus pertinents pour répondre à la question et établissez les liens hiérarchiques entre eux. Vous pouvez faire votre travail en en utilisant un logiciel de carte conceptuelle, (Cmap Tools par exemple), pour créer la carte.
2-       Pour la réflexion critique : Parmi les thématiques travaillées dans le cadre du cours, sélectionnez trois idées pertinentes pour répondre à la question. Argumentez chacune des idées en insérant des citations du livre pour appuyer vos propos. Par ex : d’après vous, quelles sont les avantages et les inconvénients de la façon d’évaluer les compétences des élèves aujourd’hui? Quel est le rôle de l’enseignant? etc. Concluez en faisant un lien avec vos prochains stages. Vous pouvez faire votre travail à l’aide d’un logiciel de traitement de texte et utilisez un correcteur (Antidote, par exemple).
3-      Pour le feuillet d’information : Sélectionnez 5 idées les plus pertinentes pour répondre à la question et expliquer-les à l’aide d’exemples;
Vous pouvez avoir jusqu’à 4 pages pour ce feuillet, trois colonnes par page. Vous pouvez également ajouter les images pour personnaliser votre travail. Vous pouvez faire votre travail à l’aide d’un logiciel de mise en plage (Microsoft Publisher ou Scribus, par exemple).
 Figure 1 : Les trois types de modalités d’évaluation inclusives

Puis, après deux années d’expérimentation, une nouvelle consigne a été ajoutée afin de recueillir la perception des étudiants, inscrits au cours lors de l’année 2017-2018, sur la raison de leur choix parmi les trois modalités offertes. De plus, la pondération a aussi été modifiée en raison des autres travaux demandés. En effet, au lieu de trois travaux demandés la première année ayant respectivement une pondération de 30%, 30% et 40%, deux travaux sont actuellement demandés représentant une pondération de 30% et de 70%. Cette modification a été rendue nécessaire pour se conformer davantage à des exigences réalistes d’un cours de un crédit sur cinq séances. Le travail comportant les trois modalités d’évaluation est donc passé de 40 à 70%.

Portrait du choix des étudiants en regard des trois modalités d’évaluation.

Il a ainsi été possible de récolter, auprès de certains chargés de cours volontaires[2], les travaux de plus de 400 étudiants ce qui a permis de dresser quelques résultats préliminaires quant au choix du format selon quatre programme : Baccalauréat en éducation préscolaire et enseignement primaire (BEPEP), le baccalauréat en enseignement en adaptation scolaire (BEAS), les 5 baccalauréats en enseignement secondaire (BES) et le baccalauréat en éducation physique et à la santé (BEPS). Des résultats obtenus auprès de tous les groupes pourront être obtenus au cours des prochaines années.

ProgrammeNb. de groupesNombre d’étudiants%
BÉPEP2 sur un total de 712731,5
BEAS4 sur un total de 418445,7
BES (5 programmes)2 sur un total de 25814,4
BÉPS1 sur un total de 1348,4
Total9 sur un total de 14403100,0

Tableau 1 : Nombre d’étudiants pour chacun des programmes de baccalauréat

Par la suite, le nombre d’étudiants qui avait choisi chacun des formats a été calculé, soit 1- la carte conceptuelle ; 2, la réflexion critique et 3- le feuillet d’information. Le tableau 2 indique que plus de la moitié des étudiants ont choisi la carte conceptuelle ce qui confirme notre première idée de modalité d’évaluation.

Format choisiNombre d’étudiants%
1Carte conceptuelle20851,6
2Réflexion critique12731,5
3Feuillet6816,9
Total403100,0

Tableau 2 : Nombre d’étudiants pour chacun des choix de format de la modalité d’évaluation

Il a ensuite été observé la présence de disparités dans le choix des formats selon les programmes où la carte conceptuelle était la modalité la plus populaire dans trois programmes sur 4. La figure 2 illustre les résultats récoltés.

Figure 2 : Choix des formats selon les programmes du baccalauréat en enseignement

Dans la majorité des programmes, soit trois sur quatre, les étudiants choisissent de façon marquée la carte conceptuelle comme premier choix. Chez les étudiants du BEPEP (nb=86) et du BEPS (nb=23), c’est plus de 68% d’entre eux (nb=211) tandis que chez les étudiants du BEAS, c’est 49% d’entre eux (nb=90). Les étudiants du BES quant à eux choisissent majoritairement la réflexion critique à 74% (nb=43).

Justification du choix de format des étudiants

Au-delà de ces choix, c’est la justification de ceux-ci qui révèlent des données sur la motivation et l’engagement des étudiants. Lors de la quatrième année d’implantation, il a été demandé à certains étudiants de justifier leur choix c’est-à-dire de justifier les raisons de leur choix. Il a ainsi été possible de récolter ces informations pour des étudiants du baccalauréat en éducation physique (BÉPS) et du baccalauréat en enseignement en adaptation scolaire (BEAS)[3]. On retrouve deux tendances  dans le contenu analysé: on y décrit le choix du format en indiquant les aspects qu’il permet d’exposer ou on le décrit en fonction des avantages ressentis en comparaison des deux autres choix offerts. Voici quelques verbatim qui illustrent bien ces deux tendances dans chacun des trois formats :

Carte conceptuelle-E1-BÉPS « J’ai choisi de faire une carte conceptuelle car je trouve très pertinent de mettre les idées-clés de l’évaluation des apprentissages en quelques mots. En choisissant un maximum de 30 concepts, ce travail nous force à réfléchir davantage et à être très précis dans nos choix. De plus, cette carte est un outil idéal pour mémoriser rapidement le sujet traité. Ainsi, je peux encoder l’information dans ma mémoire à long terme beaucoup plus facilement qu’un texte de plusieurs pages. Enfin, je pense réutiliser l’outil Cmap pour d’autres projets en raison de sa simplicité et de son utilité.

Carte conceptuelle-E11-BÉPS « J’ai choisi de faire une carte conceptuelle parce que j’ai de la difficulté à être concise dans mes études lorsque j’écris des textes. Je trouvais donc que les contraintes pour le texte et la brochure allaient possiblement me poser problème. De plus, la carte conceptuelle n’est pas un outil que je suis habituée à utiliser lors de mes travaux et elle force à être concise dans les idées étant donné qu’il faut schématiser les concepts et les liens entre eux. Je trouvais donc que c’était un bon défi pour moi et cela me permettrait de mettre de l’ordre dans mes idées. Finalement, la carte conceptuelle est très claire visuellement et permet de comprendre facilement et rapidement les concepts et les liens entre ceux-ci. »

Réflexion critique –E2-BÉPS « J’ai choisi de faire une réflexion critique parce qu’elle me permet d’élaborer plus en détails ma réflexion et les concepts autour de l’évaluation. Une carte conceptuelle permet de mettre en relation des concepts mais ne permet pas une grande élaboration de ceux-ci. Un feuillet d’information doit contenir de l’information vulgarisée. En choisissant la réflexion, je peux m’exprimer avec plus de liberté qu’avec la carte conceptuelle ou le feuillet d’information.»

Réflexion critique-E15-BEAS « La réflexion critique permet selon moi un niveau de compréhension et une acquisition des connaissances plus grande. Cela nous permet de repasser en revue toutes les compétences comprises dans ce cours. Devoir réfléchir, établir un compte rendu et mettre en œuvre ces acquisitions, nous permet par la suite de déduire une panoplie de points communs. Je préfère former un texte puisque mes idées se clarifient davantage et cela me permet d’établir un texte concis et clair. »

Dépliant- E18-BEAS- « J’ai choisi de faire un dépliant parce que l’option était attrayante visuellement. On peut s’amuser en ajoutant des images et en travaillant la mise en page. Il y a un côté créatif à ce travail. On ne doit pas simplement écrire des paragraphes. On doit rendre la chose attrayante pour les lecteurs. De plus, c’est un bon format à conserver dans mes affaires en tant que future enseignante.»

Dépliant-E22-BEAS « Dans le cadre de ce présent travail sur l’évaluation des apprentissages dans le système scolaire au Québec, le feuillet d’information a été adopté. Comparé au schéma conceptuel et à la réflexion critique, ce format permet de diffuser de l’information concise et structurée. Les données qui y sont véhiculées permettent à un individu ou à un ensemble de personnes de recevoir un minimum d’informations sur le sujet donné. Cet outil permettra de faire connaître au public les principes de base de l’évaluation des apprentissages de manière visuelle, accessible et peu coûteuse. »

Le fait que les résultats aient été obtenus auprès d’une partie seulement des étudiants présente une limite à cette analyse. Une collecte plus poussée des données pourrait permettre d’observer si le format choisi ou l’appartenance à un programme d’enseignement ont une influence sur les résultats scolaires des étudiants et de cerner si les modalités d’évaluation mises en place sont réellement inclusives. Ainsi, une recherche plus exhaustive pourrait porter sur cet objet. De la même façon, la grille servant à l’évaluation de ce travail pourrait être analysée afin d’assurer que le jugement est équitable pour les trois modalités d’évaluation proposées. Il sera alors possible d’examiner si les modalités d’évaluation mises en place favorisent la réussite scolaire des étudiants universitaires. Car si l’enseignement est inclusif, l’évaluation doit l’être aussi.

Ceci n’est pas nouveau puisque dès 1992 Perrenoud indiquait que les procédures ordinaires d’évaluation sont des freins au changement des pratiques pédagogiques. Plus récemment, Philion, Lebel et Bélair (2010) soulevaient deux principaux défis liés à l’application de la CUA en milieu universitaire. Le premier, nommé « la tâche professorale » explique que l’enseignement selon ce modèle demande un grand investissement en temps de la part des professeurs. Le second défi posé concerne la finalité des programmes universitaires. En effet, on s’interroge sur la façon d’appliquer une pédagogie inclusive tout en respectant les exigences des programmes. Parmi les préoccupations soulevées, « la prise en compte des différences individuelles des étudiants interroge indéniablement de nombreux membres du corps professoral universitaire, notamment en ce qui a trait aux mesures d’évaluation à mettre en œuvre et aux risques inhérents que celles-ci altèrent la finalité des programmes » (Philion, Lebel et Bélair, 2010, p.8).

Dans ce contexte, le processus de modification du Plan de cours représente une première étape pour travailler avec des groupes d’enseignants, chargés de cours, afin d’appliquer des principes de la CUA tant dans l’enseignement que dans les modalités d’évaluation que les cours se donnent en présentiel ou à distance.

Références

Morin, M. (2018). Expérimentation de la cartographie conceptuelle comme dispositif de collecte de données en vue de l’évaluation des apprentissages. Thèse de doctorat Université de Montréal. https://papyrus.bib.umontreal.ca/xmlui/handle/1866/21830

Perrenoud, P. (1992). Différenciation de l’enseignement : résistances, deuils et paradoxes. Cahiers Pédagogiques, Paris. 306, p. 49–55.

Philion, R. ; Lebel, C. ; Bélair, L. Le modèle Universal Instructional Design au service de l’égalité des chances dans les universités canadiennes : apports, enjeux et défis, Éducation et socialisation, 2012,DOI : 10.4000/edso.780. http://journals.openedition.org/edso/780

Tardif, J., (2006). L’évaluation des compétences: documenter le parcours de développement. Montréal, Canada : Chenelière Éducation,


[1] Ce texte est le 3e d’une série traitant de l’évaluation formative/différenciation pédagogique et tâche complexe et authentique.

[2] Ce ne sont pas tous les chargés de cours qui ont appliqué cette consigne dans le Plan de cours lors de cette année scolaire.

[3] Résultats obtenus auprès des chargés de cours qui avaient intégré cette nouvelle consigne

[citationic]

Appliquer les principes de la CUA pour l’apprentissage, l’enseignement et l’évaluation en présentiel ou en ligne

Micheline Joanne Durand, professeur, Université de Montréal

mj.durand@umontreal.ca

La variabilité des apprenants fréquentant maintenant les établissements universitaires amène les enseignants à se questionner sur la réussite et la persévérance scolaire. Dans le domaine de l’évaluation des apprentissages, des questions se posent concernant les différentes pratiques visant à réduire les inégalités. De plus, le contexte de la pandémie, a conduit plusieurs universités canadiennes à se donner des orientations pour favoriser l’inclusion c’est-à-dire diversifier les méthodes d’enseignement et d’apprentissage, et aussi varier les modalités d’évaluation dans les cours offerts en ligne. Nous vous présentons d’abord les principes à la base de la Conception Universelle des apprentissages (CUA) puis nous donnerons quelques exemples d’applications pour l’enseignement et l’évaluation.

Les principes de la  conception universelle de l’apprentissage (CUA)

L’évaluation est partie prenante de la conception universelle de l’apprentissage (CUA) «Universal Design for Learning» qui se définit selon Henderson (2013), comme un ensemble de principes visant la flexibilité et la diversité des environnements d’apprentissage pour une pédagogie accessible à tous les étudiants, peu importe leur mode d’apprentissage ou leurs besoins particuliers. Bowe (2000) étend la conception universelle à une vaste gamme de domaines, dont l’éducation. Il précise que la conception universelle peut désigner des pratiques qui rendent l’apprentissage accessible tant aux personnes pressées par le temps, issues de divers milieux et celles ayant différents styles d’apprentissage. La conception universelle de l’apprentissage (CUA) à l’enseignement supérieur est une pratique qui répond ainsi à l’hétérogénéité des groupes. Les trois principes de la CUA comportent trois orientations qui se décomposent à leur tour en trois aspects. Chacun des trois principes vise ensuite une dimension de l’apprenant qui se retrouve dans le Tableau 1. Selon Hanna (2005), ces principes ne se transfèrent pas directement à l’évaluation mais il est possible de trouver dans leur essence les valeurs et les façons de les favoriser.

Tableau 1 : Lignes directrices de la CUA (Traduction libre du texte de CAST, 2008)

Selon les lignes directrices de la CUA[1], le premier principe, REPRÉSENTATION, concerne le quoi c’est-à-dire les réseaux de reconnaissance du cerveau qui va recueillir et classer les informations par textes, images et symboles en captant, enregistrant, comprenant et interprétant l’information obtenue par les sens. C’est aussi l’acquisition de nouveaux savoirs qui s’ajoutent aux acquis ou les transforment. Le deuxième principe, ACTION ET EXPRESSION, traite du comment. Ce sont les réseaux stratégiques qui vont fournir les actions et les expressions aux étudiants par les textes, les discours, les films et l’art visuel entre autres. Il est lié à l’exécution des tâches, à la manière de les accomplir, aux stratégies permettant d’atteindre un but. Le savoir-faire acquis rend la personne apte à résoudre des problèmes, bref de mobiliser efficacement ses fonctions exécutives, cognitives et motrices. Le troisième principe, ENGAGEMENT, répond au pourquoi. Ce sont les réseaux affectifs, qui vont éveiller l’intérêt et favoriser l’autorégulation par l’utilisation appropriée de l’espace, le climat propice à l’apprentissage et le recours aux communautés d’apprentissage notamment. C’est le domaine de l’affectif, de la connaissance de soi et de la motivation qui engendre l’engagement et l’implication personnelle et qui concerne la gestion des émotions et de la mémorisation via l’interprétation des émotions.

Pirot et De Ketele définissent l’engagement académique comme « une décision volontaire de s’engager activement et profondément, mais aussi comme la participation active dans les activités d’apprentissage » (Pirot et De Ketele, 2000, p.370). Pour ces auteurs, ce type d’engagement est un processus multidimensionnel qui inclut quatre types de mobilisation : 1) affective, 2) conative, 3) cognitive, 4) métacognitive. Il en résulte que c’est la qualité de l’engagement plus que la quantité de celui-ci qui fait la différence au niveau de la réussite scolaire. Dupont, De Clercq et Galand, (2015) ajoutent que l’engagement est un prédicteur proximal important, en particulier l’engagement comportemental et les stratégies d’autorégulation.

À la lumière de ce qui précède, on peut se questionner sur la façon dont les enseignants au niveau universitaire mettent en place des pratiques pédagogiques inclusives dans la façon de tenir compte des besoins de tous les étudiants d’un programme. Plus précisément, il serait intéressant de savoir quelles pratiques pédagogiques inclusives, notamment celles concernant les modalités d’évaluation  en présentiel et en ligne, tiendraient compte de la variabilité des étudiants.

Application des pratiques de la CUA dans l’enseignement et l’évaluation

L’application des principes de la CUA répond à différentes situations d’enseignement et d’évaluation. Ces principes sont proches des pratiques des enseignants et leur intégration peut se faire à importance et vitesse variables. Pour ce faire, diverses recommandations travaillées par un groupe d’enseignants universitaires ont été par la suite appliquées, soit dans le plan de cours directement, soit sur la plateforme Moodle du cours ou encore en salle de classe, en présentiel ou à distance. En voici quelques exemples :

Exemple 1 : en lien avec le principe I- REPRÉSENTATION, afin de combler le manque de compréhension due notamment à la maitrise des concepts liés au domaine de l’évaluation, au manque d’attention ou au manque de temps. Les recommandations sont liés à l’orientation 3) Offrir diverses possibilités sur le plan de la compréhension afin de former des apprenants débrouillards, bien informés et compétents:

  • Déposer des consignes écrites sur la plateforme du cours pour que les étudiants puissent se préparer avant le cours. Les consignes reliées à l’activité réalisée pendant le cours sont accessibles à tous et elles peuvent être téléchargées et imprimées avant le cours. Une bonne compréhension des consignes amène les étudiants à bien saisir l’intention pédagogique et à persévérer pour compléter leurs activités.
  • Indiquer les pages à lire dans l’ouvrage obligatoire à l’avance pour que les étudiants puissent se préparer avant le cours.
  • Déposer des explications sur vidéo sur la plateforme du cours pour que les étudiants puissent se corriger de façon autonome après l’activité.
  • Élaborer un lexique de termes spécialisésà déposer sur la plateforme du cours pour que les étudiants puissent y référer à tout moment.

Désireux de réussir leur formation, de nombreux étudiants souhaitent se préparer à l’avance pour se sentir prêts lors de la prestation du cours. Ainsi ils peuvent lire les textes demandés à l’avance et bien saisir les consignes reliées au travail à réaliser. De plus, s’il y a une notion ou un concept qui n’est pas bien compris, ils peuvent avoir accès à un lexique en lien avec l’objet du cours. Finalement, il n’est pas toujours possible de s’attarder longuement en grand groupe pour donner des explications et cela peut être un besoin pour quelques étudiants. Ils peuvent alors réécouter à leur guise des vidéos réalisées par l’enseignante au moment opportun pour avoir une meilleure compréhension.

Exemple 2 : en lien avec le principe III- ENGAGEMENT, afin de combler le manque d’intérêt due à une uniformisation dans les travaux demandés. Les recommandations sont liés à l’orientation 7) Offrir différentes possibilités pour éveiller l’intérêt afin d’amener un engagement optimal des étudiants dans le développement de leurs compétences :

  • Amener l’étudiant à réfléchir sur le choix des travaux qu’il souhaite déposer afin de démontrer le développement et la maîtrise de sa (ses) compétence (s).
  • Proposer différentes thèmes ou sujets pour un même travail. Par exemple, si on demande aux étudiants de planifier, en équipe de trois, trois stratégies différentes pour enseigner et évaluer une notion, ils réaliseront tous le même travail mais chaque équipe de trois pourra choisir la notion, le thème ou le sujet.
  • Proposer différentes démarches pour un même thème ou sujet dans un travail donné. Par exemple, si on demande aux étudiants de démontrer leur compréhension des enjeux de l’évaluation, différents formats de réponse pourraient leur être proposés. C’est l’exemple qui sera détaillé ultérieurement[2].
  • Ne pas obliger de remettre un travail écrit lors d’une présentation orale et vice versa mais laisser le choix. Lorsqu’il est demandé aux étudiants de présenter oralement, à l’aide d’un support visuel, l’ensemble de leur travail, l’enseignant peut avoir les informations suffisantes et pertinentes pour porter son jugement pour évaluer l’étudiant sans qu’il ait à rédiger un texte.

La variabilité des apprenants est au cœur de cette problématique. Chacun a ses propres intérêts et son propre style d’apprentissage qui l’a amené à développer des compétences et des méthodes de travail plus spécifiques. De plus, les recherches ont montré que donner un choix conduit à un engagement plus grand de la part des étudiants, à une meilleure appropriation des contenus (Viau, 2005 ; Davies et Le Mahieu, 2003). L’enseignant peut donc répondre à la variabilité des apprenants par la flexibilité des modalités d’évaluation.

Exemple 3 : en lien avec le principe III-ENGAGEMENT, afin de canaliser l’intérêt et la concentration des étudiants. Les recommandations sont liées à l’orientation 8) Offrir différentes possibilités pour soutenir l’effort et la persévérance afin de former des apprenants débrouillards, bien informés et compétents:

  • Organiser une foire aux questions (FAQ) pour donner la parole aux étudiants à chaque début de cours. Les étudiants peuvent ainsi préparer leurs questions et exercer leur droit de parole afin de s’assurer de leur compréhension ou éclaircir et préciser certains objets.
  • Récapituler ce qui a été vu lors de la dernière séance de cours à chaque début de séance en faisant une carte conceptuelle que les étudiants peuvent reproduire ou prendre en photo pour les aider à synthétiser leurs apprentissages.
  • Indiquer sur le Plan de cours et sur la plateforme du cours les principaux éléments traités durant le cours et les lectures qui y sont rattachées.
  • Indiquer au début de chaque séance de cours les principaux éléments traités pendant le cours. C’est le menu du cours qui aide les étudiants à structurer leur prise de note et à poser leurs questions au moment où le sujet est discuté.

Exemple 4 : en lien avec les trois principes soit : I- REPRÉSENTATION, orientation 3) offrir plusieurs possibilités sur le plan de la perception; II ACTION ET EXPRESSION, orientation 5) Offrir différentes possibilités sur les plans de l’expression et de la communication en optimisant l’accès aux outils et technologies de soutien; III- ENGAGEMENT, orientation 9) Offrir différentes possibilités sur le plan de l’autorégulation, et ce, afin de favoriser une compréhension optimale des étudiants de la rétroaction sur leurs travaux et d’économiser du temps enseignant tout en offrant une rétroaction très complète. Les recommandations sont liées à ces trois principes :

  • Indiquer clairement les critères d’évaluation dans le Plan de cours pour chacune des modalités d’évaluation demandées.
  • Rédiger des annotations (rétroactions écrites) de types métacognitif et constructif sur les travaux notamment avec la fonction révision des traitements de texte.
  •  Proposer des rétroactions (feedback) sur les travaux à l’aide notamment d’une capture d’écran de l’enseignant intégrant sa voix et ses commentaires.
  • Amener les étudiants à faire le point sur le travail réalisé à l’aide de grilles d’autoévaluation ou d’un questionnaire métacognitif et en tenir compte dans leur évaluation.
  • Proposer la grille descriptive critériée qui servira à l’évaluation de la tâche. Cette grille peut aussi servir à l’étudiant pour son autoévaluation.

Cette première exploration des dispositifs à mettre en place dans le contexte de la CUA a permis de situer les concepts de PERCEPTION (Principe1), d’ACTION et d’EXPRESSION (Principe 2) et d’ENGAGEMENT (principe 3) chez les étudiants et ainsi mettre en lumière les éléments important les constituant. Le prochain texte présentera une modalité d’évaluation expérimentée dans ce contexte.

Références

Bowe, F.G. (2000). Universal Design in Education: Teaching Nontraditional Students. Westport, CT: Bergin and Garvey

CAST, (2008). Universal Design for Learning Guidelines. En ligne : http://pcua.ca/les-3-principes/vue-d-ensemble

Davies, A. et Le Mahieu, P. (2003). Assessment for learning: reconsidering portfolios and research evidence. In : Segers, M.; Dochy, S.; Cascallar, E. (Eds.), Innovation and Change in Professional Education: Optimising New Modes of Assessment: In Search of Qualities and Standards, p. 141-169. Dordrecht: Kluwer Academic Publishers. Repéré à : http://electronicportfolios.org/afl/Davies&LeMahieu.pdf

Dupont, S., De Clercq, M., et Galand, B., (2015). Les prédicteurs de la réussite dans l’enseignement supérieur, Revue française de pédagogie, Lyon, 191, p. 105-136.

Hanna, E. (2005). Inclusive Design for Maximum Accessibility: A Practical Approach to Universal Design, PEM Research Report 05-04, Pearson Educational Measurement. 2005. http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.183.3417&rep=rep1&type=pdf

Henderson, T. (2013), La conception universelle de l’apprentissage en enseignement supérieur : Une pratique à connaître. Vers une pédagogie inclusive et réussie pour tous! Bulletin de l’AQICESH (Association québécoise interuniversitaire des conseillers aux étudiants en situation de handicap). http://aqicesh.ca/docs/Bulletin-AQICESH-printemps-2013.pdf

Pirot, L. et De Ketele, J-M. (2000). L’engagement académique de l’étudiant comme facteur de réussite à l’université. Étude exploratoire menée dans deux facultés contrastées. Revue des sciences de l’éducation, Montréal, 2000, 26(2), p. 367-394. Doi:10.7202/000127ar Viau, R. (2005).  12 questions sur l’état de la recherche scientifique sur l’impact des TIC sur la motivation à apprendre, http://tecfa.unige.ch/


[1] URL : http://pcua.ca/les-3-principes/vue-d-ensemble

[2] C’est ce qui fait l’objet du 3e article sur le sujet.

[citationic]

Favoriser la réussite et la persévérance scolaire en présentiel et à distance

Micheline Joanne Durand, professeure, Université de Montréal

mj.durand@umontreal.ca

La variabilité des apprenants universitaires va bien au–delà des questions de genre, de statut familial et socio-économique, d’ethnicité, d’origine et de culture (valeurs et langue) ou de style d’apprentissage. Qui plus est, comme le souligne Fortier (2018), la proportion d’étudiants en situation de handicap se situe maintenant à 6,3 % des étudiants admis, c’est dix fois plus qu’il y a dix ans. Le même constat a été mentionné par Lombardi et coll. en 2013 aux États-Unis. Dans le contexte d’une pédagogie inclusive, des mesures d’adaptation sont de plus en plus demandées et les principes de la CUA à l’enseignement supérieur tendent à se répandre afin de répondre à l’hétérogénéité des groupes. On peut dès lors se questionner sur la façon dont les enseignants au niveau universitaire favorisent une pédagogie de l’inclusion qui tient compte de la variabilité des étudiants dans le contexte de la formation à distance. Nous allons d’abord aborder les défis de la pédagogie universitaire pour ensuite nous concentrer sur l’apport des technologies. D’ailleurs, La Grenade (2017) mentionne que « l’inclusion ne concerne pas que les étudiants en situation de handicap, mais l’ensemble de la diversité » (p. 38). De plus, selon Tremblay et Chouinard (2013) l’apport des technologies est indéniable pour favoriser la flexibilité et la diversité et amener des projets novateurs.

Défis de la pédagogie universitaire : le besoin d’innover

La qualité de l’enseignement joue un rôle crucial dans les cours offerts au niveau universitaire qui, sont confrontés à d’autres défis qui se répercutent sur les approches évaluatives, dont celui de diversifier les modalités de formation (en classe, en ligne), celui d’évaluer un nombre toujours plus élevé d’étudiants, et celui de soutenir les étudiants en situation de handicap ou ayant des besoins particuliers. À cet effet plusieurs universités, par l’entremise du service à l’enseignement, ont élaboré des guides pédagogiques et mis en place une page web afin de soutenir les enseignants dans leurs pratiques pédagogiques dans une perspective de diversité et d’inclusion. L’Université Laval[1], l’Université de Montréal[2], l’UQAM[3] et l’université d’Ottawa[4] par exemple, ont mis en place divers aménagements dont l’adaptation des rythmes et des temps d’apprentissage; l’adaptation des modalités pédagogiques, des supports et des contenus; l’aménagement de la structuration de l’équipe pédagogique; l’aménagement de l’environnement et l’aménagement des règles d’évaluation notamment. Lombardi et coll. (2013) mentionnent que les recherches démontrent que le processus d’inclusion ne peut se faire sans la participation et l’implication des enseignants. La Grenade (2017) précise que plusieurs recherches consultées insistent sur la portée de l’enseignant dans le processus de l’inclusion. En fait, la formation des enseignants et leur implication sont des facteurs critiques de l’accueil des étudiants en situation d’handicap à l’enseignement postsecondaire. Pour Ainscow (2005), l’engagement des enseignants dans des rencontres réflexives et créatives afin de contrer les obstacles à l’apprentissage de tous les étudiants est une  façon d’assurer une vision plus inclusive de la pédagogie. Beaudoin (2013) ajoute que, l’enseignement inclusif en misant sur la diversité pour répondre à la variété des besoins et styles d’apprentissage des étudiants, doit se baser sur une vaste gamme de pratiques réputées afin de transformer « l’approche réactive à l’enseignement à une approche proactive (…) De plus, les pratiques d’enseignement inclusives amènent les éducateurs à passer d’un rôle de transmetteurs d’information à un rôle de guides et facilitateurs d’apprentissage » (Beaudoin, 2013, p.4).

Pour sa part, Taras (2002) considère que les universités se doivent d’innover lorsqu’il est question d’évaluation. C’est dans ce contexte que l’illustration d’Alava et Langevin prend tout son sens. La figure 1 illustre l’écart entre l’immobilisme des institutions universitaires et l’innovation. Dans ce schéma, les auteurs ont volontairement fait basculer la vision de l’université vers ce qu’ils considèrent comme incontournable, soit que l’université doit prendre en compte la variabilité des apprenant afin d’éviter le décrochage scolaire en proposant une offre de formation renouvelée. «L’innovation pédagogique devient ainsi une activité stimulante pour les chercheurs universitaires, qui sont aussi des praticiens, en leur permettant d’exercer leurs compétences de chercheurs tout en améliorant celles qui sont associées à leur pratique.» (Alava et Langevin, 2001, p.249).

Figure 1 : L’université, entre l’immobilisme et l’innovation (Alava et Langevin, 2001, p. 249)

L’innovation est aussi intimement liées aux technologies utilisées tant dans l’enseignement, l’apprentissage et l’évaluation.

L’intégration des technologies pour favoriser l’inclusion

L’utilisation des technologies est un incontournable dans le monde d’aujourd’hui. (Collin et Karsenty, 2013). Dans un contexte de pratiques évaluatives inclusives elles s’avèrent essentielles tant dans les aides technologiques que dans les supports numériques, alors il est légitime de se demander de quelles manières on pourrait les utiliser de façon optimale pour la formation en ligne. Audet (2011) a répertorié les avantages et les défis des TICs dans le cadre d’une évaluation inclusive. Ainsi la flexibilité dans les contenus à faire apprendre est rendue possible par les technologies qui sont accessibles en tout temps et en tout lieu. L’étudiant peut ainsi travailler à son rythme et personnaliser sa planification. La diversité des évaluations possibles est un deuxième avantage. L’étudiant peut utiliser plusieurs médias et les modalités d’évaluation peuvent être adaptées aux différents types d’étudiants. Ainsi, de nombreuses possibilités s’offrent à l’étudiant tant au niveau visuel, audio ou vidéo. En effet, plusieurs modalités d’évaluation se prêtent maintenant à un format accessible en ligne. Que l’on pense aux e-portfolio, aux simulations, aux cartes conceptuelles, etc. Ces outils peuvent aussi être utilisés pour un travail collaboratif (blogues, wikis, forums) ou en aide à l’apprentissage comme les correcteurs, dictionnaires et réviseurs en ligne. Finalement, les technologies peuvent aussi être un vecteur de motivation chez certains apprenants. (Viau, 2005 ; Hamon, 2012; Collin et Karsenty 2013),

Favoriser la réussite et la persévérance scolaire

Étroitement liée aux dispositifs d’évaluation mis en place et aux pratiques pédagogiques valorisées, l’évaluation pour l’apprentissage (Assessment for learning, AFL) s’impose maintenant comme la fonction formative de l’évaluation. La notion d’évaluation pour l’apprentissage ou d’évaluation en soutien à l’apprentissage est proche de celle utilisée traditionnellement depuis les années 1960, de l’évaluation formative. Pour Allal et Lavault (2009) «elle apporte toutefois une dynamisation du concept d’évaluation formative, en soulignant l’engagement actif de l’élève dans son apprentissage, et un élargissement de champ, dans le sens que certaines démarches d’évaluation sommative peuvent, selon la manière de les mener, contribuer à soutenir les apprentissages de l’élève.»(Allal et Lavault, 2009, p.99).

L’évaluation pour l’apprentissage est considérée comme une piste prometteuse pour soutenir la réussite scolaire, mais son utilisation implique plusieurs défis (Bergeron et Marchand, 2015). Elle s’inspire du constructivisme social dans lequel l’apprentissage est un processus actif, constructif et graduel, donne une place accrue à l’apprenant et transforme le rôle de l’enseignant. Lors d’une évaluation pour l’apprentissage, l’enseignant donne des informations sur les forces et les difficultés de l’étudiant. C’est ce qui relève de la régulation des apprentissages. Celle-ci peut être exercée à différents moments de l’apprentissage et prendre diverses formes. Le fait de renforcer les évaluations formatives améliorerait substantiellement les apprentissages des étudiants quel que soit le niveau d’enseignement (Andrade, 2010, Black et Wiliam, 1998; Cooper, 2001; Nicol et MacFarlane-Dick, 2006). L’étude de Black et Wiliam révèle même que les effets des pratiques d’évaluation formative sont plus grands que pour la plupart des interventions pédagogiques, et que ces effets sont encore plus importants pour les étudiants en difficulté (Black et Wiliam, 1998). La rétroaction descriptive fait partie de ces pratiques et elle est essentielle à l’apprentissage car elle répond à trois objectifs : elle décrit les forces sur lesquelles peut s’appuyer le développement ultérieur ; elle identifie les faiblesses et suggère ce qu’il faut faire pour les remédier ; et elle donne de l’information qui permet à l’apprenant d’ajuster ce qu’il fait afin de s’améliorer (Davies et Le Mahieu, 2003). Quant à l’autorégulation, une autre pratique au service de l’apprentissage, Zimmerman (2008) la définit comme étant le degré auquel l’étudiant est un participant actif dans son apprentissage tant au niveau métacognitif, qu’émotionnel et comportemental. Elle s’appliquer autant à l’étudiant qui régule son apprentissage qu’à celui qui régule sa motivation. Il apparaît donc que la capacité d’autorégulation est un autre élément incontournable de toute intervention s’intéressant à l’engagement des étudiants. L’autorégulation peut s’effectuer à différents niveaux chez l’étudiant : métacognitif, motivationnel et comportemental. Par ailleurs, il s’avère que la capacité à s’autoréguler, particulièrement au niveau cognitif et comportemental est aussi un prédicteur de performance. (Zimmerman, 2008). Feyfant (2016) ajoute que la relation étroite entre évaluation formative et inclusion détermine les stratégies d’enseignement et les ajustements constants de l’enseignant. Selon Philip (2013), l’évaluation inclusive est une évaluation formative qui aide les étudiants à apprendre, il n’est pas question ici d’évaluation sommative. Pour elle le développement de pratiques inclusives, doit impliquer les enseignants car ce sont eux qui ont la responsabilité des situations d’apprentissage et d’évaluation. Pour sa part, Kozanitis (2005) parle de pratiques évaluatives qui ont un impact sur la motivation des étudiants. Il mentionne que l’une des pratiques évaluatives favorables à la motivation des étudiants est de varier et de différencier les méthodes d’évaluation, c’est-à-dire, de pratiquer la différenciation pédagogique. En fait, toujours selon cet auteur, l’utilisation de méthodes d’évaluation critériées, diversifiées et individualisées et de situations d’évaluation authentiques et contextualisées motiverait les étudiants et les encouragerait à s’engager dans le processus d’apprentissage en présentiel ou en ligne. Ainsi, le processus d’évaluation peut être est intimement liée aux principes de la CUA. [5]

Références

Ainscow, M. (2005), Developing inclusive education systems: What are the levers for change? Journal of Educational Change 6(2). DOI: 10.1007/s10833-005-1298-4

Alava, S.; Langevin, L. (2001). L’université, entre l’immobilisme et le renouveau. Revue des sciences de l’éducation, Montréal, 27(2). p. 243–256. DOI:10.7202/009932ar

Allal, L. ; Laveault, D. (2009). Assessment for Learning : Évaluation-soutien d’Apprentissage. Mesure et évaluation en éducation, 32(2). p. 99–106. https://doi.org/10.7202/1024956ar

Andrade, H. L. (2010). Students as the definitive source of formative assessment: Academic self-assessment and the self-regulation of learning. In Cizek, G. J. et Andrade, H. L. (Eds.), Handbook of formative assessment New York, Routledge,  p. 90-105.

Audet, L.  (2011). Les pratiques et défis de l’évaluation en ligne, Réseau d’enseignement francophone à distance du Canada.

Beaudin, J-P. (2013) Introduction aux pratiques d’enseignement inclusives. Centre de pédagogie universitaire, Ottawa, v.10, p.1-16. http://www.uottawa.ca/respect/sites/www.uottawa.ca.respect/files/accessibilite-guide-inclusion-fr-2013-10-30.pdf

Bergeron, G. ; Marchand, S. (2015). Soutenir l’apprentissage d’étudiants ayant un trouble d’apprentissage au collégial : le cas d’une recherche-action-formation. Nouveaux c@hiers de la recherche en éducation, 18(1). 1-27. https://www.erudit.org/fr/revues/ncre/2015-v18-n1-ncre02147/1033728ar.pdf

Black, P. et Wiliam,D.(1998).Inside the Black Box: Raising standards through Classroom Assessment. The Phi Delta Kappa International, 80(2). p. 139-144, 146-148.

Collin, S. et Karsenty, T., (2013). Usages des technologies en éducation : analyse des enjeux socioculturels. Éducation et francophonie 411, p.192–210. DOI:10.7202/1015065ar

Cooper, N. (2001). Facilitating Learning from Formative Feedback in Level 3 Assessment. Assessment & Evaluation in Higher Education, 25(3), p.279-291.

Davies, A. et Le Mahieu,P. (2003). Assessment for learning: reconsidering portfolios and research evidence. In : Segers, M.; Dochy, S.; Cascallar, E. (Eds.), Innovation and Change in Professional Education: Optimising New Modes of Assessment: In Search of Qualities and Standards , p. 141-169. Dordrecht: Kluwer Academic Publishers. http://electronicportfolios.org/afl/Davies&LeMahieu.pdf

Feyfant, A. (2016) La différenciation pédagogique en classe. Dossier de veille de l’IFÉ, n.113, Lyon : ENS de Lyon. http://ife.ens-lyon.fr/vst/DA/detailsDossier.php?parent=accueil&dossier=113&lang=fr

Fortier, M. (2018) Le nombre d’étudiants souffrant de déficience bondit dans les établissements postsecondaires. Le Devoir, 3mars 2018. https://www.ledevoir.com/societe/education/522005/enseignement-superieur-explosion-du-nombre-d-etudiants-en-difficulte

Hamon, D. (2012). Le sens des dispositifs d’enseignement-apprentissage instrumentés par les TICE pour les collégiens. SpiralE 2012 in http://www.spirale-edu-revue.fr/spip.php?article1115

Kozanitis (2005) L’évaluation du travail en équipe. Bureau d’appui pédagogique, École Polytechnique.

La Grenade, C.B. (2017). Les enseignants du collégial sont-ils inclusifs ? https://eduq.info/xmlui/bitstream/handle/11515/35510/lagrenade-enseignants-sont-ils-inclusifs-parea-2017.pdf?sequence=2

Lombardi, A., Murray, C.; Dallas, B. (2013). University Faculty Attitudes Toward Disability and Inclusive Instruction : Comparing two Institutions. Journal of Postsecondary Education and Disability. 26(3), p. 221-232.

Nicol, D. J.; MacFarlane-Dick, D. (2006). Formative assessment and self-regulated learning: a model and seven principles of good feedback practice. Studies in Higher Education, 31(2), p.199-218.

Philip, C. (2013) L’inclusion scolaire : qu’en est-il ?, blogue, https://blogs.lexpress.fr/the-autist/files/2013/09/L_inclusion-scolaire-2-C.-PHILIP.pdf

Taras, M. (2002).Using Assessment for Learning and Learning from Assessment. Assessment & Evaluation in Higher Education. 27(6), p.501-510.

Tremblay, M. et Chouinard, J.  (2013). Modèle des fonctions d’aide : un pont entre la théorie et la pratiquewww.reptic.qc.ca/wp-content/uploads/2013/09/201306_Article_Modele-des-fonctions-aide-un-pont-entre-theorie-pratique.pdf

Viau R. (2005). 12 questions sur l’état de la recherche scientifique sur l’impact des TIC sur la motivation à apprendre. http://tecfa.unige.ch/

Zimmerman, B.J. (2008). Investigating Self-Regulation and Motivation: Historical Background, Methodological Developments, and future Prospects. American Educational Research Journal, 2008, 45(1), p.166-183.http://journals.sagepub.com/doi/abs/10.3102/0002831207312909


[1] https://www.enseigner.ulaval.ca/ressources-pedagogiques/l-approche-pedagogique-inclusive

[2] https://nouvelles.umontreal.ca/article/2016/12/01/vous-qui-enseignez-vos-pratiques-pedagogiques-sont-elles-inclusives/

[3] https://ssa.uqam.ca/fichier/document/education_inclusive.pdf

[4] https://www.uottawa.ca/recteur/domaines-strategiques/diversite-et-inclusion

[5] C’est ce qui sera traité dans le second texte portant sur les l’application des principes de la CUA

[citationic]

Analyser la qualité d’un questionnaire d’évaluation en ligne

Sébastien Béland (Université de Montréal)

Les questions permettant d’évaluer les bonnes et les mauvaises réponses des étudiants sont très populaires sur les plateformes pédagogiques en ligne. Cette catégorie de questions peut prendre plusieurs formes : choix de réponse multiple, vrai ou faux, questions à apparier, etc. Nous allons, dans ce qui suit, présenter succinctement trois stratégies permettant d’analyser la qualité du questionnaire utilisé : calculer la difficulté d’une question, calculer la capacité discriminante d’une question et estimer la fidélité des scores.

Préparer les données avant les analyses

Pour faciliter le travail, il est recommandé d’organiser les résultats d’évaluation à l’aide d’une matrice où les questions sont insérées en colonnes et où les bonnes (notées « 1 ») et mauvaises (notées « 0 ») réponses sont insérées en rangées. Un exemple de matrice prendrait la forme suivante dans une situation où dix étudiants ont répondu à quatre questions.

 Question 1Question 2Question 3Question 4
Étudiant 11010
Étudiant 21110
Étudiant 31110
Étudiant 41000
Étudiant 50000
Étudiant 60100
Étudiant 71010
Étudiant 81111
Étudiant 91100
Étudiant 101110

Les analyses qui suivent seront inférées à partir de cette matrice de résultats d’évaluation.

La difficulté d’une question

La difficulté d’une question peut prendre la forme d’une proportion qui se calcule en divisant le nombre de bonnes réponses à une question par le nombre total d’étudiants évalués. Ainsi, dans une situation où huit étudiants sur dix ont eu une bonne réponse à une question précise, la difficulté est égale à 8/10= ,8. Évidemment, si aucun étudiant n’a obtenu de bonne réponse à la question, l’indice est égal à zéro et il est égal à un si tous les étudiants ont réussi la question. La dernière rangée de la matrice de réponses suivante présente la valeur de la difficulté pour chacune des questions.

 Question 1Question 2Question 3Question 4
Étudiant 11010
Étudiant 21110
Étudiant 31110
Étudiant 41000
Étudiant 50000
Étudiant 60100
Étudiant 71010
Étudiant 81111
Étudiant 91100
Étudiant 101110
Difficulté,8,6,6,1

Nous constatons que la première question est la plus facile, car elle est réussie par 80% des étudiants. À l’opposé, la cinquième question est la plus difficile, car seulement un étudiant y a obtenu une bonne réponse. Un évaluateur pourrait décider de rejeter une question selon une difficulté qu’il considère inacceptable, par exemple dans le cas d’une question trop difficile pour le groupe d’étudiants évalué.

La capacité discriminante d’une question

On dira qu’une question discrimine bien si elle permet aux étudiants qui maîtrisent bien le contenu évalué de se distinguer de ceux qui ne maîtrisent pas le contenu évalué. Plusieurs stratégies permettent de calculer la capacité discriminante d’une question. La plus connue est celle qui utilise le coefficient de corrélation point-bisériale, qui corrèle la réponse à une question avec les scores totaux des étudiants au questionnaire (avec ou sans cet question). La dernière rangée de la matrice qui suit présente la valeur de la discrimination pour chacune des questions.

 Question 1Question 2Question 3Question 4
Étudiant 11010
Étudiant 21110
Étudiant 31110
Étudiant 41000
Étudiant 50000
Étudiant 60100
Étudiant 71010
Étudiant 81111
Étudiant 91100
Étudiant 101110
Difficulté,8,6,6,1
Discrimination,44,22,51,33

Il existe des barêmes pour estimer ce coefficient. Une valeur inférieure à zero indique que la question ne discrimine pas. Lorsque la valeur de la discrimination est située entre 0 et ,09, on dit que la question présente une très faible discrimination. La discrimination de la question est « faible » pour des valeurs entre ,10 et ,19; « modérée » pour des valeurs entre ,20 et ,29; « bonne » pour des valeurs entre ,30 et ,39; et « très bonne » si elle est au-dessus de ,40 (Laveault et Grégoire, 2014; Nunnaly et Bernstein, 1994). Selon ces valeurs, nous observons que la question deux présente une discrimination modérée et toutes les autres questions présentent des discriminations qualifiées de « bonne » ou « très bonne ».

La fidélité des scores

La fidélité des scores réfère à la capacité d’un questionnaire à générer peu d’erreur ou, pour le dire autrement, être précis[1]. Celle-ci est généralement estimée à l’aide d’un coefficient qui prend théoriquement une valeur entre zéro et un. Plus la valeur de ce coefficient approchera de la valeur de l’unité, plus on considérera que les scores au questionnaire sont « fidèles ». Une convention informelle, mais répandue, stipule qu’une valeur minimale de ,7 est nécessaire pour considérer qu’un questionnaire a une fidélité acceptable. Nous devons mentionner que ce ,7 n’est pas unanimement accepté dans la communauté en mesure et qu’une autre valeur minimale pourrait être acceptée, au besoin.

Nous avons utilisé deux coefficients pour estimer la fidélité des scores des réponses utilisée dans ce court article. D’abord, le coefficient alpha de Cronbach (1951) est égal à ,58 et le coefficient omega de McDonald (1985, 1999) est de ,64. Quoique légèrement différents, ces valeurs nous indiquent essentiellement la même chose : le questionnaire présente une précision limitée. Ainsi, il serait probablement pertinent de retravailler cette évaluation en ajoutant quelques questions et en s’assurant que les questions déjà utilisées sont bien écrites.

L’analyse de la qualité des questions à l’aide du logiciel JASP

         Les analyses précédentes ont été produites à l’aide de JASP, qui est offert en téléchargement gratuit à l’adresse suivante :

Après avoir intégré les résultats de l’évaluation dans le logiciel, il faut sélectionner l’onglet « Descriptives » et, ensuite, « Reliability Analysis » :

Ensuite, il faut sélectionner « Mean » pour calculer la difficulté des questions, « Item-rest correlation » pour calculer la discrimination des questions et « Cronbach’s  » ainsi que  « McDonald’s  » pour obtenir des estimations de la fidélité des scores.

Références

Cronbach, L. J. (1951). Coefficient alpha and the internal structure of tests. Psychometrika, 16, 297-334.

Laveault, D.et Grégoire, J.(2014).Introduction aux théories de tests en psychologie et en sciences de l’éducation(3eédition). Bruxelles: De Boeck Université.

McDonald, R. P. (1985). Factor analysis and related methods. Mahwah, NJ: Lawrence Erlbaum.

McDonald, R. P. (1999). Test theory: A unified treatment. Mahwah, NJ: Lawrence Erlbaum.

Nunnally, J.C. et Bernstein, I.H. (1994) The Assessment of Reliability. Psychometric Theory, 3, 248-292.


[1] L’information contenue dans cette section peut être obtenue de différentes façons. Nous allons uniquement traiter de la stratégie appelée « consistance interne ».

[citationic]

Appel à candidature Contrat Doctoral, SFERE-Provence, Projet DREAM-U, Chantier 4 Mesure d’impact

Date limite de dépôt des dossiers au 17.08.2020

Ce contrat doctoral s’inscrit dans le contexte institutionnel du projet DREAM*U, financé par l’ANR, qui vise à favoriser la réussite de l’étudiant en licence en développant son autonomie. Cela nécessite de prendre en compte la forte diversité des étudiants accueillis, un enjeu primordial pour AMU qui enregistre des taux de réussite en Licence 1 inférieurs à la moyenne nationale.

Le projet DREAM*U se décline en 4 chantiers opérationnels et touchera, à terme, l’ensemble des licences générales : 1-l’évolution de l’offre de formation vers plus de modularité et de transversalité, 2-le renforcement des dispositifs d’accompagnement individualisés, 3-la transformation des pratiques pédagogiques.

Ce contrat doctoral relève des missions du chantier 4 de DREAM-U qui est transversal et vise à évaluer les dispositifs du projet DREAM*U et de son impact au travers d’un programme de recherche ancré sur l’expérimentation.

Le chantier 4 du projet DREAM*U s’inscrit dans une démarche d’amélioration continue et est organisé en 2 volets.

Le volet « recherche » vise les objectifs suivants :

  • identifier les facteurs de réussite et de développement de l’autonomie des étudiants de licence dans la gestion de leur projet personnel et professionnel,
  • observer l’évolution des conceptions et des pratiques enseignantes en licence (mise en œuvre de l’APC, pratiques de pédagogie active, changement de posture, usage du numérique…),
  • interroger les différentes pratiques d’accompagnement mises en œuvre auprès des étudiants et des enseignants en licence, pour en analyser les perceptions et les effets sur les différents acteurs impliqués.

Le volet « évaluation du projet » vise les objectifs suivants :

  • documenter systématiquement l’implantation et le déploiement des nouveaux parcours DTI-SRI, évaluer la réussite annuelle des étudiants en fonction de leurs profils et de leurs parcours, analyser les trajectoires des étudiants (réussite / orientation / échec) en lien avec les différents dispositifs d’accompagnement ;
  • suivre l’appropriation de la démarche compétences par les étudiants, solliciter leur retour sur la qualité du dispositif d’accompagnement proposé, analyser l’utilisation des outils intégrés dans AMéTICE (notamment portfolio e-FoliAM) ;
  • mesurer l’intensité des échanges entre les étudiants et le monde socio-professionnel : observer la progression du mentorat professionnel, solliciter un retour des étudiants bénéficiaires, apprécier l’insertion professionnelle des jeunes diplômés.

La recherche vise à accompagner le déploiement progressif du projet DREAM*U à l’ensemble des licences générales d’AMU et son amélioration en fonction des évaluations au niveau national, à 3 et 6 ans.

Télécharger l’AAC :  SFERE Fiche AAC Contrat Doc DREAM-

En savoir plus :  https://sfere.hypotheses.org/16830