Communications orales – Bloc C – Résumés

Jeudi 15 novembre 2018
15 h 15 à 17 h 15
Hôtel Gouverneur – Place Dupuis

Ne plus voir les résumés.

Salle Rimouski-Chicoutimi – Persévérance et motivation
  1. Quelles actions pour améliorer la persévérance aux études en enseignement supérieur au Burkina Faso? Analyse à la lumière du modèle de Tinto (1997)
    Alexis Salvador Loyé (ULaval), Éric Frenette (ULaval) et Jean-François Kobiané (Université de Ouagadougou)

    L’enseignement supérieur est considéré comme un moyen privilégié pour former une main-d’œuvre hautement qualifiée visant à assurer le progrès économique et social d’un pays (Romainville et Michaut, 2012). Cependant, les universités publiques africaines peinent généralement à maintenir les étudiants qui y accèdent (Zagré, 2007).
    Diverses théories (psychologiques, sociologiques, économiques, organisationnelles, interactionnistes) dans la littérature portent sur la persévérance aux études en enseignement supérieur. Parmi celles-ci, les théories interactionnistes offrent un champ de recherche plus vaste, car elles intègrent les variables des autres théories. Des modèles conceptuels développés, celui de Tinto (1997) est considéré le plus robuste (Chenard et Doray, 2005) et ayant influencé d’autres modèles théoriques sur la persévérance aux études (Lakhal, 2012).
    À la lumière du modèle de Tinto (1997), le but de cette recherche est d’analyser l’effet des caractéristiques préadmissions (contexte familial, caractéristiques personnelles, expérience scolaire antérieure) sur la persévérance aux études en enseignement supérieur (inscription en 4e année) au moyen d’une analyse de survie de Kaplan et Meier (1958) et de Cox (1972), qui sont respectivement de types descriptif et explicatif. Un total de 14 cohortes (répartie de 1995 à 2012) pour un effectif de 13 982 étudiants en sciences technologiques au Burkina Faso sont considérées pour la présente recherche.
    Les résultats préliminaires indiquent que la profession du père, le genre et l’expérience scolaire antérieure prédisent la persévérance aux études, mais ce n’est pas le cas pour l’âge et le lieu de naissance. Il en découle des besoins d’intervention selon le genre, les familles et collèges afin d’améliorer la persévérance aux études en sciences technologiques au Burkina Faso.

  2. L’enseignement des statistiques à l’université et la participation active de l’étudiant à son propre apprentissage
    Carla Barroso da Costa (UQAM)

    Le changement de paradigme éducatif vers la formation par compétences au Québec a amené la communauté universitaire à repenser ses pratiques évaluatives, notamment en les inscrivant dans des situations authentiques et signifiantes. En ce qui concerne la formation universitaire, les discussions ont renforcé l’idée de réflexivité dans les dispositifs de formation (Altet, Desjardins, Étienne, Paquay et Perrenoud, 2013; Lison, 2013). Dans ce contexte, l’un des défis actuels de la formation universitaire est de promouvoir la mise en œuvre de pratiques évaluatives qui encouragent les étudiants à utiliser les niveaux les plus élevés de la pensée, ce qui ne peut reposer que sur des apprentissages en profondeur. Selon les chercheurs (Allal, 2016; Nizet, 2015), la réflexion critique ou la capacité de l’étudiant à porter un jugement objectif sur lui-même et sur son implication dans la tâche évaluative est la principale expression de l’autoévaluation. Reconnue comme une dimension de l’autonomie, l’autoévaluation permet à l’étudiant d’identifier ses progrès, ses points forts et ses limites et lui donne également la possibilité d’exprimer des pistes d’améliorations en lien avec la stratégie d’apprentissage adoptée. En d’autres mots, l’autoévaluation offre une occasion à l’étudiant de réaliser une analyse approfondie de son action tout au long du développement d’une tâche évaluative. L’étude présente les résultats de l’analyse de 73 autoévaluations réalisées par des étudiants du baccalauréat en sciences humaines dans le cadre d’un cours d’analyses quantitatives au terme de la réalisation d’un travail à tâche complexe. La recherche corrobore les résultats d’études précédentes (Berger, 2008, 2011; Noël et Cartier, 2016; Romainville, 1993) en suggérant un lien entre la métacognition, la motivation et l’apprentissage : l’un des critères de la connaissance est exactement l’accessibilité de l’étudiant à sa conscience et sa participation active sur le plan motivationnel et comportemental.

  3. Évaluation motivante en éducation physique et à la santé : une synthèse des connaissances
    Johanne Grenier (UQAM), Thomas Favreau (UQAM), Erika Bissonnette (UQAM) et Mathieu Bisson (UQAM)

    L’éducation physique et à la santé (EPS) consiste à : accroitre l’efficience motrice de l’élève; développer ses habiletés psychosociales; contribuer à l’acquisition de connaissances et de comportements nécessaires à une gestion judicieuse de sa santé et de son bienêtre (MEQ, 2003). Cependant, l’expérience d’évaluation des compétences des élèves, qui est toujours publique, peut provoquer des effets opposés à la mission de l’EPS (Redelius et Hay, 2012). Ainsi, il importe de s’assurer que les pratiques évaluatives demeurent des activités motivantes pour les élèves et qu’elles n’entravent pas le développement d’un mode de vie actif. Dans le but d’appuyer la formation des enseignants d’EPS, une synthèse narrative des connaissances (Petticrew et Roberts, 2005) a été réalisée. La cueillette des articles scientifiques pertinents (APS) s’est effectuée en trois cycles successifs comprenant chacun quatre étapes : a) interrogation des bases de données, b) sélection des ASP, c) recherche dans la bibliographie de chaque ASP et d) relance dans Google Scholar pour repérer les textes ayant cité chacun des ASP. Ainsi, plus de 600 textes ont été répertoriés et les ASP permettent de proposer des actions concrètes aux enseignants d’EPS afin qu’ils puissent mettre en œuvre des expériences d’évaluation motivantes pour leurs élèves.

  4. Compiler et analyser les perceptions des étudiants pour appuyer des décisions pédagogiques
    Michelle Deschenes (ULaval) et Séverine Parent (UQAR – Campus Lévis)

    Si la prise de décision guidée par les données a été utilisée dans de nombreux secteurs d’activités dans les dernières années, il semble que le milieu de l’éducation accuse quant à lui un certain retard dans ce domaine. Les données sont recueillies, mais elles sont souvent analysées et utilisées à long terme (Long et Siemens, 2011). Après avoir traduit et adapté le modèle Multiple measures of data de Bernhardt (2004), nous avons constaté que, bien que nous ayons des données sur les profils d’étudiants, sur leur cheminement scolaire et sur leurs apprentissages, les enseignants n’ont, quant à eux, pas toujours accès aux perceptions de leurs étudiants.
    Dans une démarche de design participatif et en nous appuyant sur les principes de l’analyse d’apprentissage (learning analytics), nous avons conçu, développé et évalué, de façon itérative et collaborative, un outil permettant de recueillir les perceptions des étudiants de façon hebdomadaire. Cet outil a été utilisé dans dix classes au postsecondaire afin de permettre aux enseignants d’obtenir les perceptions des étudiants sur leur engagement socioaffectif au fil de la session. Nous présenterons les répercussions sur la pratique d’une enseignante ayant utilisé l’outil durant la session d’hiver 2018. Nous verrons comment les données fournies par les étudiants ont suscité la réflexion de l’enseignante et influencé ses actions. Nous discuterons aussi des pistes d’amélioration de l’outil.

  5. Rapport entre le choix des pratiques évaluatives et la motivation scolaire des élèves francophones de 6e année du primaire
    Isabelle Cousineau (UQAM) et Pascal Ndinga (UQAM)

    La présente communication rapporte les résultats d’une recherche qui avait pour but d’éclairer davantage les enseignants du primaire quant à l’impact direct que peut avoir le choix de leurs pratiques évaluatives en salle de classe sur la motivation scolaire des élèves. L’objectif spécifique était de brosser un premier portrait de la relation entre les pratiques évaluatives et la motivation scolaire des élèves en salle de classe. En effet, dans le contexte actuel des approches par compétences, de nouvelles pratiques évaluatives font sans cesse leur apparition sans que l’on en connaisse les impacts réels. L’objectif spécifique poursuivi s’appuie sur de nombreuses études scientifiques. Pour ce faire, deux questionnaires furent employés. Le premier, adressé aux enseignants, visait à connaitre les pratiques évaluatives couramment utilisées en classe par les enseignants répondants. Le deuxième fut adressé aux élèves afin de connaitre leur niveau de motivation scolaire vis-à-vis les pratiques évaluatives répertoriées par leurs enseignants. Ce deuxième questionnaire était composé des cinq pratiques évaluatives les plus fréquemment utilisées en classe identifiées au travers des résultats du premier questionnaire administré aux enseignants.
    Une analyse de régression multiple a été appliquée, suivie d’analyses secondaires. Ces analyses ont permis de cerner des pistes de réflexion fort intéressantes. D’abord, les élèves de l’étude ayant rempli le questionnaire ont été tous en mesure d’émettre leur niveau de motivation scolaire selon l’échelle présentée sur la base de quatre échelons allant de 1 à 4. Celle-ci allait de « Pas du tout motivé » – échelon 1, jusqu’à « Fortement motivé » – échelon 4. Ainsi, il appert que certaines pratiques évaluatives sont perçues négativement par les élèves, c’est-à-dire qu’elles ne les motivent pas du tout à la tâche (échelon 1). En somme, il semble exister un lien étroit entre le choix des pratiques évaluatives et la motivation scolaire des élèves.

Salle Gouverneur 1-2 – Examen collaboratif
  1. Modéliser l’interdépendance en contexte collaboratif : survol des approches
    Iris Bourgault Bouthillier (UdeM) et Nathalie Loye (UdeM)

    La collaboration est un thème de recherche qui est devenu central dans les milieux de travail et de l’éducation au cours des dernières décennies (OCDE, 2017). Un des plus grands défis entourant la recherche sur la collaboration réside dans la complexité de sa mesure. En effet, le concept de collaboration implique l’interaction entre plusieurs individus et une évolution temporelle. Or, la plupart des modèles de mesure « classiques » se limitent à des mesures statiques et individuelles ne permettant pas de cerner la nature dynamique et interdépendante du concept. Plusieurs approches ont été proposées dans le but de remédier à ces lacunes (p. ex. Halpin et von Davier, 2017; Sweet, 2017; Wiltshire, Butner et Fiore, 2017). La présente communication vise à faire une synthèse critique de différentes approches de modélisation de l’interdépendance en contexte collaboratif. Ces dernières se répartissent sur un continuum de précision allant de devis très simples (mesures transversales, agrégées et discrètes) à des devis très complexes (mesures longitudinales, multiples et continues). La présentation traitera notamment d’analyses de réseaux, de modèles d’équations structurelles, de modèles d’événements relationnels et d’approches biométriques (tracking visuel, EEG, etc).

  2. Étude d’un cas d’examen collaboratif certificatif en contexte de grand groupe
    Diane Leduc (UQAM), André-Sébastien Aubin (UQAM) et Mathilde Cambron-Goulet (UQAM)

    Dans de multiples disciplines, la collaboration est au nombre des compétences professionnelles à acquérir. Elle permet de mettre l’accent sur la compréhension des notions et leur transfert dans différents contextes, plutôt que sur la mémorisation à court terme, fréquente en situation de grand groupe. Or, si le travail collaboratif en classe est utilisé et valorisé par plusieurs enseignants, il l’est peu lors de l’évaluation des apprentissages. En situation de grand groupe, l’utilisation de modalités évaluatives peu diversifiées misant surtout sur des examens individuels est fréquente. Le recours à un examen collaboratif est rare, sauf dans les cours où la coopération est centrale.
    Notre projet de recherche s’inscrit dans ce contexte, soit dans un cours de fondements de l’éducation où l’enseignement de la collaboration s’est fait par la collaboration en poussant l’idée jusqu’aux examens de fin de trimestre. Les objectifs visés par la recherche sont les suivants : 1) décrire les apports d’un examen collaboratif sur le développement de l’habileté à argumenter, 2) décrire les stratégies de fonctionnement des équipes lors d’un examen collaboratif et 3) identifier les perceptions des étudiants ayant vécu une telle évaluation. À la fin de l’automne 2017, 120 étudiants inscrits en première session d’un cours de fondements de l’éducation et regroupés en équipe de quatre ont réalisé un examen collaboratif sommatif de trois heures. Au préalable, ils ont assisté à un atelier sur le travail d’équipe visant à réunir des conditions pour être efficace. Des analyses, menées à l’hiver 2018 à partir des réponses aux examens (mi et fin de session), des réponses des équipes à deux questions à la fin de l’examen et d’un questionnaire en ligne portant sur leurs perceptions, révèlent que leur capacité à argumenter s’est améliorée, que la collaboration a été efficace et qu’une majorité d’entre eux ont une perception positive de ce type d’examen.

  3. Examens collaboratifs à l’ÉTS : bilan d’une expérience pilote
    Dominique Piotte (École de technologie supérieure) et Anis Boubaker (École de technologie supérieure)

    Comment transformer une évaluation en activité d’apprentissage? Dans le prolongement de la pédagogie active, les enseignants proposent des examens collaboratifs dans le but de renforcer les compétences ou de corriger les erreurs au moyen d’une rétroaction immédiate par les pairs.
    Inspirés par Georg Rieger à SALTISE en 2017, nous avons testé un format d’évaluation en deux phases.
    Pendant deux sessions, nous avons proposé des évaluations au cours desquelles un examen individuel est immédiatement suivi d’un examen collaboratif. Deux cours, en chimie et en informatique, et trois enseignants, ont été impliqués dans ce projet pilote. Nous avons fait varier les modalités d’évaluation : la composition des équipes, la durée de l’évaluation, la pondération relative et le type de questions de la partie collaborative. Le suivi s’est fait par une analyse des résultats (notes) obtenus par les étudiants et par sondage auprès de ceux-ci.
    Dans une deuxième phase, nous développons un protocole pour valider si la rétention des étudiants ayant participé à ce mode d’évaluation est meilleure que celle des étudiants de groupes témoins.
    Nous présenterons le point de vue des enseignants sur les modalités, le déroulement, les bénéfices et difficultés rencontrées lors de la première phase, ainsi que les résultats préliminaires de la deuxième phase. Nous discuterons également de l’opinion des étudiants sur l’expérience en général, les interactions dans l’équipe et leur perception des impacts positifs et négatifs.

  4. Évaluation de la capacité à travailler en groupe : impacts de deux dispositifs d’évaluation par les pairs
    Catherine Colaux (Université de Liège – Gembloux Agro-Bio Tech) et Pascal Detroz (Université de Liège – IFRES)

    La capacité à travailler en groupe joue un rôle majeur dans le métier d’ingénieur (CTI, 2016). À Gembloux Agro-Bio Tech, nos étudiants sont amenés, dès leur première année, à travailler par groupes de 6, supervisés par un tuteur. Si l’enseignement basé sur la coopération est souvent qualifié de performant (Johnson et Johnson, 2005), il est également connu pour ses difficultés liées à son évaluation (King et Behnke, 2005).
    Classiquement, deux grandes méthodes se dégagent. La première est l’évaluation par l’enseignant, où une note globale et unique est attribuée au groupe (King et Behke, 2005). Ce système peut parfois générer un sentiment d’injustice chez les étudiants (Mentzer et al., 2016). La deuxième est l’évaluation par les pairs, qui attribue une note individuelle calculée à partir des appréciations des pairs. Celle-ci peut toutefois favoriser l’inflation des notes attribuées aux amis, les collusions entre étudiants, l’effet de tendance centrale et l’influence des leaders (Kozanitis, 2005).
    Conformément à ce que recommande le plus souvent la littérature, notre dispositif d’évaluation utilise simultanément ces deux méthodes. La pondération est conforme à ce que Stevens (2007) propose, à savoir 80 % pour la note de l’enseignant et 20 % pour celle des pairs. Dans le cadre de cette étude, deux systèmes d’évaluation par les pairs ont été testés. Le premier repose sur une grille d’évaluation descriptive holistique. Chacun des indicateurs est décrit et associé explicitement à un score sur 10. Le second repose sur une grille d’évaluation analytique à 7 critères (engagement, délais, attitude, collaboration, feedback, qualité du travail), sans qu’un score apparent soit associé aux indicateurs proposés.
    Lors de cette communication, nous évaluerons l’impact de ces deux systèmes sur la capacité des étudiants à s’autoévaluer, mais aussi sur les difficultés rencontrées pour évaluer leurs pairs. Nous nous baserons sur les résultats d’une enquête soumise aux étudiants et sur une analyse de leurs évaluations.

  5. Évaluation en deux étapes dans des cours collégiaux de mathématiques et physique
    Jean-François Brière (Collège Dawson) et Andreea Panait (Collège Dawson)

    Nous présenterons le cheminement qui nous a menés à modifier nos évaluations afin de mieux refléter notre approche interactive de l’enseignement en mathématiques et en physique. Nous effectuons souvent une évaluation en deux étapes. Durant la première étape, les étudiants répondent individuellement aux questions du test. Immédiatement après, les étudiants forment de petits groupes pour répondre à des questions très similaires, voire identiques, mais de façon collaborative. L’intérêt de cette façon de fonctionner réside à la fois dans l’interaction entre les étudiants et dans la rétroaction quasi instantanée obtenue dans la deuxième phase du test. En répétant le même test après un délai de quelques semaines, nous avons mesuré l’impact de l’évaluation en deux étapes sur la rétention de la matière testée.

Salle Gouverneur 3 – Concepts théoriques
  1. Sévérité des évaluateurs : l’insoutenable légèreté du concept. Les défis opérationnels de la définition du concept
    Christophe Chénier (UQAM), Gilles Raîche (UQAM) et Pascal Ndinga (UQAM)

    L’importance d’étudier et de contrôler les différences de niveau de sévérité des évaluateurs, que ce soit dans un contexte scolaire, d’épreuves standardisées ou d’évaluations professionnelles, demeure une préoccupation constante dans le domaine. Mais étudier et contrôler supposent que l’on puisse définir minimalement ce qu’est la « sévérité » d’un évaluateur, tâche ardue s’il en est. Les chercheurs se rabattent normalement sur une définition strictement opérationnelle, ce qui prête flanc à la critique traditionnelle portée contre l’opérationnalisme, c’est-à-dire que deux ensembles d’opérations différentes peuvent mener à deux concepts distincts. Ce problème est particulièrement criant lorsque l’on veut étudier l’évolution temporelle du niveau de sévérité, puisque deux défis conjoints se posent alors : « comment définir opérationnellement la sévérité » et « comment définir opérationnellement l’unité temporelle utilisée ». Les décisions prises lors de l’analyse pour surmonter ces défis ont des impacts directs sur les valeurs estimées des niveaux de sévérité et, donc, sur les résultats des analyses effectuées à partir de ces valeurs. De plus, aucune opérationnalisation ne s’impose, surtout en ce qui concerne la définition de l’unité temporelle, où des besoins s’opposent, soit le souci d’avoir des valeurs estimées précises et la volonté de modéliser les tendances temporelles fines. L’importance de ces problèmes sera illustrée avec des données réelles concernant l’étude longitudinale du niveau de sévérité d’évaluateurs en français langue étrangère. Nous verrons que les impacts des problèmes conceptuels soulevés ci-dessus peuvent être, dans certains cas, assez importants et que différentes opérationnalisations peuvent mener à des résultats contradictoires.

  2. Un cadre didactique pour penser l’évaluation et ses pratiques en mathématiques
    Nathalie Sayac (Université Paris-Est Créteil / LDAR)

    Ayant fait le constat que l’approche scientifique développée en sciences de l’éducation pour étudier les questions d’évaluation (externe, de classe, de pratiques, etc.) n’est pas suffisante quand des contenus mathématiques sont en jeu, mais que l’approche didactique ne l’est pas non plus quand elle ne prend pas en compte des résultats cruciaux développés en sciences de l’éducation, j’ai développé un cadre pour penser et analyser les « faits évaluatifs » (Chevallard, 1986) qui conjugue efficacement savoirs scientifiques en évaluation (dans la diversité des champs scientifiques concernés) et savoirs didactiques. Ce cadre didactique de l’évaluation ne retient pas une entrée par les fonctions usuelles de l’évaluation (formative, sommative, certificative, etc.). Dans ce cadre, c’est l’étude du moment où l’évaluation est réalisée, du contenu des tâches évaluatives proposées, de sa gestion et du contrat didactique qui s’y rattache qui permet de caractériser l’activité d’évaluation de l’enseignant ou l’enseignante en mathématiques. Il prend en compte à la fois des contenus disciplinaires et des réalités professionnelles permettant de définir une nouvelle approche scientifique de l’évaluation, plus didactique et volontairement ancrée dans la réalité des pratiques en classe. Les notions d’épisode évaluatif, de contrat didactique en évaluation et de jugement professionnel et didactique en évaluation qui s’inscrivent dans la « logique évaluative » d’un professeur ou d’une professeure sont au cœur de ce cadre didactique. Elles permettent d’inscrire pleinement l’évaluation dans les processus d’enseignement et d’apprentissage tout en prenant en compte les acteurs et actrices principales que sont les membres du corps professoral et les élèves. La 40e session d’études de l’ADMEE-Canada me parait tout à fait propice à la présentation de ce cadre, qui vise à revendiquer la « cause didactique » de l’évaluation que je défends depuis quelques années.

  3. Appendre à évaluer en stage : les défis des stagiaires à la lumière des modèles d’évaluation
    Isabelle Nizet (USherbrooke) et Josée-Anne Côté (USherbrooke)

    Depuis l’implantation du Programme de formation de l’école québécoise au secondaire, plusieurs changements de prescriptions ministérielles ont créé chez les enseignants une diversité de cultures professionnelles évaluatives et un système de pratiques complexe. Un consensus existe au niveau universitaire pour former les étudiants selon une logique d’évaluation de compétences, tout en orientant, par respect des exigences ministérielles, la formation initiale vers des moyens d’évaluation quantifiée et normative. Comment se construit alors la culture évaluative professionnelle des stagiaires? Afin de répondre à cette question, nous avons soumis à huit étudiants deux questionnaires (avant et après le cours en évaluation) et avons recueilli le contenu d’entrevues semi-dirigées à la suite de leur stage de 3eannée. Les résultats montrent que la plupart des stagiaires adhèrent majoritairement à quatre modèles d’évaluation (Vial, 2012). Deux modèles principaux se dégagent : celui de l’évaluation dite formative privilégiant le rôle de l’élève dans l’évaluation et les rétroactions constructives et le modèle d’évaluation dite fonctionnaliste; deux modèles secondaires apparaissent : celui de l’évaluation formatrice, valorisant le développement de la métacognition pour faciliter la réussite, et celui de la mesure, fondé sur une approche quantitative de la notation. L’analyse des entrevues poststage montre que les stagiaires décrivent la culture évaluative professionnelle de leur enseignant associé à travers deux modèles : le modèle de la mesure et le modèle de l’évaluation dite fonctionnaliste. Bien que source d’apprentissage pour ces étudiants, ces différences produisent une incertitude quant aux pratiques valides, signifiantes et utiles. Ils mentionnent que plusieurs enseignants associés expérimentent une forme d’acculturation au contact des stagiaires, notamment en décidant d’utiliser les outils produits par eux, référant à d’autres modèles d’évaluation que les leurs.

  4. Souvent employé, rarement défini : les différents usages du terme « modèle » en mesure et évaluation de l’éducation
    Guillaume Loignon (UdeM) et Nathalie Loye (UdeM)

    Le terme modèle est omniprésent en mesure de l’éducation, qu’il soit modèle de mesure, de l’apprenant, mental, cognitif, statistique, prédictif, explicatif, etc. Le modèle fournit tantôt un espace narratif pour réfléchir à la performance de l’élève (Mislevy, 2008), tantôt une démarche à suivre pour traduire cette performance en scores (Bertrand, Blais et Raîche, 2004). Puisqu’on donne au modèle des significations qui sont parfois contradictoires, et que peu ont réfléchi à l’usage qu’ils font du concept, l’usage des modèles est entouré d’une certaine confusion terminologique (Zumbo et MacMillan, 1999). Avec la montée en popularité de l’évaluation employant un modèle cognitif, cette confusion ne risque que d’augmenter. Or, savoir réfléchir à partir d’un modèle devrait pourtant faire partie des attitudes valorisées par les professionnels de la mesure (Mislevy et coll., 2017). Cela implique d’abord de pouvoir répondre clairement à la question « Que veut-on dire quand on parle d’un modèle? »
    C’est donc avec l’objectif de valoriser l’utilisation des modèles que nous proposons une communication prenant d’abord la forme de « ménage théorique » visant à expliciter et clarifier les sens du mot modèle employés en mesure. Dans un premier temps, nous analysons critiquement plusieurs usages typiques du terme « modèle » en mesure de l’éducation et proposons de les classer en deux catégories distinctes : le modèle comme démarche (ou heuristique) et le modèle comme artéfact explicatif. Cette classification correspond à celle proposée par Gardenfors (2004) de même que Zumbo et MacMillan (1999). Nous présentons ensuite un cas d’exemple : l’utilisation des modèles dans une étude visant la création, pour le domaine de la philosophie au collégial, d’un outil de dépistage basé sur un modèle cognitif.

  5. Fondement théorique de l’évaluation sommative des élèves professeurs internes aux profils multiples à l’école normale supérieure (ENS)
    Yvette Moussounda (École normale supérieure de Libreville) et Robert Angoué Ndoutoume (École normale supérieure de Libreville)

    L’ENS assure la formation et le perfectionnement des personnels de l’éducation à partir d’un processus de professionnalisation. Les parcours et activités de formation s’appuient sur diverses approches pédagogiques qui convoquent plusieurs théories (behavioristes, constructivistes…). Quelles que soient les filières, la phase pratique succède à la formation théorique et chaque phase est jalonnée d’évaluations pédagogiques. En dépit des multiples approches théoriques existantes (Daigneault, 2011), lesquelles gouvernent l’action des évaluateurs à l’ENS? Comment l’évaluation sommative telle que pratiquée en cours transversal de « mesure et d’évaluation » participe-t-elle à l’action de professionnalisation?
    L’objectif de la présente étude est de montrer comment les théories justifient les choix stratégiques de l’acte évaluatif, sachant que celles-ci constituent l’échafaudage sous-tendant la démarche évaluative (Devaux-Spatarakis, 2014). Les résultats montrent un décalage entre les théories et les actions dans les classes.