Repères en évaluation : Ressources de la Communauté d'apprentissage et de pratique en évaluation de l'Université du Québec
mises en situation pour Dépasser les idées reçues sur l'évaluation en enseignement supérieur
13
2026
Contributions
Coordination des travaux : Emilie Robert, Conseillère en évaluation à l’Université du Québec, Professeure associée à l’École nationale d’administration publique (ÉNAP)
Comité d’édition : Jennifer Smith, Professeure au département des sciences de l'éducation, Université du Québec en Outaouais (UQO)Martin Villemure, Coordonnateur de la réussite, Université du Québec en Abitibi-Témiscamingue (UQAT)Olivier Ringuet, Directeur adjoint, Expérience étudiante (Bureau des projets académiques), École de technologie supérieure (ÉTS)Emilie Robert, Conseillère en évaluation à l’Université du Québec et Professeure associée à l’ÉNAP
Ce document a été préparé par les membres de la Communauté d’apprentissage et de pratique en évaluation de l’Université du Québec. Un comité d’édition a complété et révisé l’ensemble du contenu du document. Le logiciel ChatGPT-4.1 d’OpenAI a été utilisé pour harmoniser l’écriture des mises en situation.Les mises en situation sont inspirées de situations entendues dans le milieu de l’enseignement supérieur au Québec, ainsi que reprises ou adaptées des « bonnes raisons de ne pas faire de l’évaluation » issues de Evalophobia (Strategic Design Scenarios et Quadrant Conseil, 2018) : https://www.sustainable-everyday-project.net/evalophobia/ Les photographies proviennent de la banque d'images Unsplash sous la licence suivante : « Licence de droit d’auteur irrévocable, non exclusive et mondiale pour télécharger, copier, modifier, distribuer, exécuter et utiliser des images d’Unsplash gratuitement, y compris à des fins commerciales, sans autorisation ou attribution du photographe ou d’Unsplash. Cette licence n’inclut pas le droit de compiler des images d’Unsplash pour répliquer un service similaire ou concurrent. »
Contexte
Depuis 2022, les établissements de l’Université du Québec se forment et s’outillent pour évaluer leurs actions de soutien à la réussite et à la santé mentale étudiantes. Les actrices et acteurs de l’évaluation dans ces universités sont réunis au sein d’une Communauté de pratique et d’apprentissage en évaluation. Les membres de cette Communauté privilégient une posture évaluative axée sur l’apprentissage et l’utilisation des résultats pour l’amélioration des pratiques et des interventions au service des personnes étudiantes, tout en reconnaissant la pertinence d’autres postures dans d’autres contextes. Ce document est destiné à toute personne d’un établissement d’enseignement supérieur portant un mandat d’évaluation ou de renforcement des capacités en évaluation, dans une posture similaire. Il vise à :
- Donner des clés pour appréhender les différents contextes dans lesquels l’évaluation est amenée à être déployée ;
- Mieux faire comprendre les bénéfices d’évaluer les actions entreprises en faveur de la réussite des personnes étudiantes.
Organisation de l'outil
Le document recense 13 mises en situation au sein de l’administration d’établissements d’enseignement supérieur :
- Les mises en situation 1 à 7 touchent les personnes professionnelles et intervenantes
- Les mises en situation 8 à 13 touchent les personnes cadres ou responsables de portefeuilles de projets
Chaque mise en situation repose sur :
- Un énoncé fictif, informé par des situations réelles, pouvant freiner des initiatives d’évaluation
- Des éléments de réponse en faveur de l’évaluation en deux étapes :
- La reconnaissance du contexte et de la véracité de certains éléments de l’énoncé
- Le partage des angles morts ou des limites de l’énoncé à l’égard de l’évaluation, ainsi que de sa portée et ses bénéfices potentiels pour l’action
Le document termine par 5 conseils pour que les arguments en faveur de l’évaluation portent fruit.
Mises en situation
Personnes professionnelles et intervenantes
Cadres et responsables de portefeuille de projets
8 . J’ai déjà travaillé avec des spécialistes en évaluation parmi nos profs. On n’a pas appris grand-chose de nouveau. C’était beaucoup d’investissement pour accoucher d’une souris. 9 . On fait déjà l’évaluation de notre programme d’études aux 5 ans. Pourquoi on en ferait une autre maintenant ? 10 . Mon équipe est déjà surchargée de travail. Je ne vois pas l’intérêt de lui donner le mandat supplémentaire d’évaluer ce qu’elle fait. 11 . Je ne vois pas à quoi peut me servir l'évaluation : comment peut-on faire un lien entre ce que font nos services et le taux de diplomation ? Ça n'a pas de sens. 12 . Notre plan d’action touche à tout : tous les acteurs, tous les champs, tous les niveaux… C’est trop complexe à évaluer. Concentrons-nous sur nos indicateurs. 13 . On compile nos statistiques et on a développé un tableau de bord. On peut suivre en temps réel les indicateurs clés : pourquoi on ferait en plus de l’évaluation ?
1 . C'est épeurant de se dire que l'évaluation va juger mon travail et mes compétences. 2 . L'évaluation rime avec inspection, contrôle de gestion, sanction : ça ne fait pas envie. 3 . L'évaluation, c'est compliqué à mettre en œuvre et ça prend toujours un temps fou ! 4 . On évalue déjà : on a identifié les besoins. Et on n'a pas à faire une évaluation pour savoir ce qui ne fonctionne pas. 5 . On évalue déjà : on a un questionnaire de satisfaction. Et on fait un bilan chaque année. On n'a pas besoin d'en faire plus... 6 . Je n'y comprends rien en évaluation... Modèle logique, théorie d'intervention, efficacité, efficience, résultats, impacts... C'est dérougeant ! 7 . J'aimerais bien en faire, de l’évaluation, mais je ne me vois pas en porter la responsabilité.
Ça se comprend !
Depuis l’école, nous avons l’habitude d’être notés, comparés. Nos performances ont souvent été liées à des récompenses ou des conséquences négatives, et notre rapport à l’évaluation est teinté par ces expériences personnelles. Dans notre travail aussi, nous sommes évalués par nos directions (dans les évaluations de rendement par exemple), ce qui peut renforcer l’idée que l’évaluation sert à juger si l’on est « bon » ou « suffisamment efficace ». Dans ce contexte, il est normal que l’évaluation puisse faire peur : elle peut évoquer le risque d’être mis en défaut plutôt que la possibilité de progresser. D’autant plus que certaines approches d’évaluation sont parfois imposées (comme les redditions de compte ministérielles) et peuvent entraîner des conséquences sur notre travail. Et il faut le reconnaître : on peine parfois à expliquer clairement la finalité de l’évaluation, ce qui peut ajouter à l’incertitude.
Cela dit…
L’évaluation ne vise pas uniquement à mettre le doigt sur ce qui ne va pas. Elle peut aussi mettre en lumière nos réussites, la qualité de nos actions, et les effets que nous générons pour les personnes étudiantes. En effet, il existe plusieurs formes d’évaluation. Par exemple, l’évaluation peut porter sur une action, une initiative, un processus. Dans cette perspective, elle ne vise pas à juger une personne. Bien au contraire ! Dans nos établissements, nous agissons souvent à plusieurs : l’évaluation permet donc de comprendre ce qui fonctionne collectivement, pas de pointer du doigt une seule personne. On peut d’ailleurs être partenaire de la démarche : participer à définir les questions importantes, à collecter des données, à interpréter les résultats, à réfléchir aux suites. L’évaluation devient alors un espace d’apprentissage, plutôt qu’un verdict extérieur. Quand elle est bien faite, l’évaluation sert d’abord à nous aider à nous ajuster : mieux comprendre l’expérience étudiante, réaligner nos efforts, continuer ce qui fonctionne bien, améliorer ce qui peut être bonifié. C’est également une occasion de redonner du sens à notre travail, de reconnaître ce qui marche, et de continuer à progresser en équipe. Enfin, il est important que l’évaluation se fasse dans un climat de confiance, avec des personnes qui reconnaissent le travail accompli et qui souhaitent réellement faire avancer les choses.
C'est épeurant de se dire que l'évaluation va juger mon travail et mes compétences.
mise en situation 1
Personnes professionnelles et intervenantes
Ça se comprend !
Dans beaucoup d’organisations, le mot « évaluation » est associé à l’inspection, au contrôle de gestion et à la sanction. L’essor de la gestion axée sur les résultats, centrée sur des métriques et des tableaux de bord, a également contribué à une vision très comptable et souvent réductrice de ce que peut être l’évaluation. Il y a aussi parfois une confusion avec des processus comme les audits financiers ou organisationnels, ou encore les contrôles qualité — des démarches qui visent avant tout la conformité, qui pointent les écarts, et qui reposent sur des règles strictes plutôt que sur des processus adaptés au contexte et aux besoins. En outre, dans certaines disciplines liées à l’administration — comme les ressources humaines ou la comptabilité — l’évaluation est historiquement plus normative, plus sommative, plus axée sur le jugement. On comprend donc que cette culture influence nos représentations. Et il est vrai qu’il existe des évaluations auxquelles on ne peut pas échapper, avec des visées de contrôle ou même des usages détournés.
Cela dit…
L’évaluation, ce n’est pas que ça. Ce n’est pas que du contrôle ou que des chiffres. Par exemple, on peut aussi s’intéresser à l’humain : à l’expérience des personnes étudiantes, à leurs perceptions, à ce qu’elles vivent réellement. C’est d’ailleurs très aligné avec la mission universitaire : comprendre, accompagner, permettre le développement du plein potentiel. Et ces expériences, on peut en rendre compte autant avec des données quantitatives que des données qualitatives. En outre, l’évaluation peut aussi servir à mettre en lumière ce qui fonctionne bien — et à comprendre pourquoi cela fonctionne. Cela nous aide à renforcer ce qui est porteur, à ajuster ce qui peut l’être, et à éviter des impacts non voulus sur les personnes étudiantes. Et puis, ne pas évaluer, ce n’est pas neutre : cela ouvre la porte aux décisions basées sur des impressions ou des préjugés. On peut voir des initiatives disparaître simplement parce qu’on croit — sans preuve — qu’elles ne servent à rien. L’évaluation, au contraire, nous permet de montrer l’utilité de ce que l’on fait, d’expliquer notre contribution et d’avoir plus d’influence dans la prise de décision. Au fond, l’évaluation peut devenir un outil pour nous : elle donne du sens, elle soutient la qualité, elle renforce notre capacité à agir et à faire reconnaître notre travail. On investit tellement d’énergie dans la planification : investir aussi dans l’apprentissage à partir de l’évaluation, c’est ce qui nous permet d’avancer avec plus de clarté et de confiance.
L'évaluation rime avec inspection, contrôle de gestion, sanction : ça ne fait pas envie !
mise en situation 2
Personnes professionnelles et intervenantes
Ça se comprend !
Il est vrai que l’évaluation peut être parfois perçue comme une pratique complexe et exigeante. Pour les personnes qui ont de nouveaux mandats d’évaluation, comme pour celles que l’on sollicite pour des projets d’évaluation (soit parce qu’elles portent des projets ou que l’on souhaite les impliquer dans une démarche d’évaluation participative), il s’agit d’un domaine qui nécessite un certain apprentissage. L’évaluation mobilise en effet un vocabulaire spécialisé, des outils spécifiques et des façons de faire qui ne sont pas encore pleinement intégrées dans le milieu de l’enseignement supérieur. En outre, l’adhésion des équipes n’est pas automatique. Par ailleurs, une évaluation rigoureuse demande du temps : il faut planifier, organiser, définir les besoins en information et coordonner la collecte de données, mobiliser les équipes qui n’adhèrent pas toujours à l’exercice, etc. Et tout cela, en poursuivant des tâches courantes déjà nombreuses et identifiées comme prioritaires. Car malheureusement, l’évaluation n’est pas toujours vue comme une responsabilité incontournable ; elle est parfois reléguée au second plan parmi d’autres obligations institutionnelles. Dans ce contexte, il arrive qu’on se sente isolé, d’autant plus lorsque l’appui de la direction n’est pas clairement affirmé. Ces conditions contribuent à l’impression que l’évaluation est à la fois complexe, chronophage et difficile à intégrer dans les pratiques habituelles.
Cela dit…
L'évaluation, c'est compliqué à mettre en œuvre et ça prend toujours un temps fou !
L’évaluation aide à prendre des décisions éclairées pour mettre en place des actions réellement pertinentes. Elle nous permet de répondre à la question essentielle : « Qu’est-ce que cela apporte concrètement ? », en mettant en lumière la capacité de nos actions à générer des retombées pour les personnes étudiantes. À long terme, elle peut faire gagner du temps : il s’agit d’un investissement qui permet de consolider les initiatives les plus porteuses, plutôt que de reproduire des actions dont la portée reste incertaine. Mieux vaut prendre le temps de bien évaluer et d’ajuster nos pratiques que de maintenir un service qui n’atteint pas ses objectifs — ce qui peut se révéler beaucoup plus coûteux en temps et en énergie. Et, comme le dit le proverbe : « C’est en forgeant que l’on devient forgeron » — les concepts et les réflexes d’évaluation s’intègrent en les pratiquant. Il faut se lancer ! Les outils de la Communauté d’apprentissage et de pratique en évaluation pourraient être utiles pour partir du bon pied.
mise en situation 3
Personnes professionnelles et intervenantes
Ça se comprend !
C’est un excellent point de départ d’avoir identifié les besoins. Les démarches diagnostiques ou d’analyse des causes racines qui se traduisent en besoins sont en effet généralement peu exploitées dans nos milieux. Par ailleurs, votre sensibilité aux défis ou aux limites de certaines de vos actions témoigne déjà d’un réflexe d’analyse critique. En d’autres mots, vous possédez déjà l’essentiel du réflexe évaluatif : vous observez, vous questionnez, vous souhaitez améliorer vos pratiques.
Cela dit…
Pourquoi s'arrêter là ? Une démarche d’évaluation structurée donnerait les moyens d’appuyer ces intuitions, d’en tirer des apprentissages solides et d’orienter les décisions avec davantage de confiance. D’autant plus que l’on confond souvent l’évaluation des besoins et l’évaluation des actions, alors qu’il s’agit de deux démarches différentes. L'évaluation des actions ou des projets que l’on met en place va en effet au-delà de l’analyse des besoins. Elle permet de confirmer – ou non – vos intuitions, notamment sur ce qui ne fonctionne pas. Surtout si d’autres personnes ne sont pas d’accord avec votre perception de la situation. Et il ne s’agit pas seulement de valider la pertinence de ce que l’on fait. On peut aussi examiner la mise en œuvre, les effets, les retombées. Sans cela, comment savoir que ce qui semble ne pas fonctionner est réellement le bon élément à remettre en question ? Par exemple, on peut avoir mis en place un webinaire pour répondre à un besoin précis. Si la mise en œuvre se déroule mal et que l’activité ne donne pas les résultats attendus, on pourrait être tenté de conclure que le format n’était pas adéquat. Pourtant, un problème d’exécution ne signifie pas que le choix du webinaire n’était pas pertinent pour répondre à l’objectif initial.
On évalue déjà : on a identifié les besoins. Et on n'a pas à faire une évaluation pour savoir ce qui ne fonctionne pas !
mise en situation 4
Personnes professionnelles et intervenantes
Ça se comprend !
Vous avez d’autres responsabilités et il n’est pas utile d’évaluer plus que nécessaire. L’évaluation de la satisfaction est par ailleurs déjà une bonne pratique, car cela permet de s'assurer que les actions sont appréciées des publics cibles. En outre, les bilans permettent de faire état des réalisations et également des succès : cela doit être encourageant !
Cela dit…
On a parfois tendance à considérer que les données de satisfaction suffisent à évaluer des actions. Pourtant, ce type d’information ne permet ni d’examiner la mise en œuvre, ni d’apprécier les effets, ni d’estimer les retombées attendues des initiatives. Les données de satisfaction, à elles seules, ne nous donnent aucun argument solide pour décider de maintenir, d’ajuster ou d’abandonner une action au regard des objectifs fixés. On peut ainsi continuer à offrir des services que l’on croit pertinents et utiles, sans pouvoir en apporter la démonstration. Une démarche évaluative permettrait d’examiner par exemple l’atteinte des objectifs. Ainsi, dans le cas d’un projet de mentorat, les personnes étudiantes peuvent se dire satisfaites, mais le mentorat a–t-il réellement contribué à l’objectif visé — qu’il s’agisse de persévérance, d’intégration, d’accueil ou de réussite ? Et comment peut-on savoir que on doit ajuster l’action, si on ne dispose pas de ces informations ?
On évalue déjà : on a un questionnaire de satisfaction. Et on fait un bilan chaque année. On n'a pas besoin d'en faire plus...
mise en situation 5
Personnes professionnelles et intervenantes
Ça se comprend !
Quand on s’implique pour la première fois dans l’évaluation, on se retrouve devant une foule de concepts et cela peut donner le vertige. Tout ça peut paraître opaque, compliqué au début et on peut ne pas voir tout de suite à quoi servent les différents outils. On peut aussi se sentir dépassé, pas assez outillé, ou même douter de ses capacités. Ça brasse nos repères et ça nous sort de notre zone de confiance. Si c'était si facile, tout le monde s’y mettrait sans hésiter ! Comme pour n’importe quel métier, il y a des choses à apprendre… Et en évaluation, la famille des approches est particulièrement large. On aimerait bien qu’il existe un mode d’emploi simple, comme pour monter un meuble Ikea !
Cela dit…
On ne part jamais vraiment de zéro et ce n’est pas tout à fait vrai qu'on n'y comprend rien : en réalité, on est en pleine courbe d’apprentissage. L’évaluation se construit morceau par morceau. Il existe une logique, des étapes, un fil conducteur : on avance une brique à la fois, et ça devient beaucoup plus clair. De plus, on n’est pas obligé de tout mobiliser d’un seul coup. On peut avancer pas à pas, selon le besoin. C’est comme ça que l’on apprend, et que ça finit par devenir naturel. En effet, l’évaluation nécessite des compétences très concrètes : on les intègre surtout en les mettant en pratique. Les concepts prennent vraiment sens lorsqu’on les applique au moins une fois dans un vrai contexte. Par ailleurs, les outils et les notions peuvent paraître nombreux, mais ils ne sont que le reflet de tout ce que l’évaluation permet de faire : c’est cette richesse qui crée l’impression de complexité. À l'Université du Québec, on n’est pas seul. La Communauté d’apprentissage et de pratique en évaluation a produit plusieurs outils, et ses membres peuvent accompagner ou aiguiller leurs collègues au besoin. La question est : comment faire pour retrouver confiance et passer à l'étape suivante ?
Je n'y comprends rien en évaluation. Modèle logique, théorie d'intervention, efficacité, efficience, résultats, impacts... C'est décourageant !
mise en situation 6
10
Personnes professionnelles et intervenantes
Ça se comprend !
L’évaluation peut sembler une grande responsabilité à porter sur ses épaules. C’est normal de ne pas trop savoir par où commencer, ou de ne pas se sentir tout à fait légitime pour le faire. Dans beaucoup de milieux, la culture évaluative n’est pas encore bien ancrée : il n’y a pas toujours de structures, ni d’équipes clairement mandatées pour s’en occuper. Il arrive alors qu’une personne devienne, un peu par hasard, le point de chute pour toutes les questions d’évaluation — qu’elle se retrouve à coordonner, à mobiliser, à faire avancer les choses sans soutien officiel. On compte encore souvent sur la bonne volonté des gens : « Si ça te tente d’évaluer, vas-y ! » Mais sans ressources, ni accompagnement, c’est un fardeau lourd à porter.
Cela dit…
L’évaluation ne devrait pas reposer sur les épaules d’une seule personne, surtout si l’institution n’a pas encore donné les moyens institutionnels de le faire — c’est-à-dire un mandat clair, inscrit dans des fonctions reconnues, et non attribué à titre individuel. De toute façon, l’évaluation gagne à être collective. Travailler en équipe permet d’entendre d’autres points de vue, de mieux choisir les outils de collecte, d’affiner les formulations — par exemple lorsqu’on parle d’« efficacité » ou de « résultats ». C’est ensemble que l’on donne du sens et de la rigueur à la démarche. Il est possible d'identifier un ou une collègue pour nous appuyer l’évaluation, quelqu’un qui a envie de tester de nouvelles approches et d’apprendre en pratiquant. Une autre bonne pratique consiste à mettre sur pied un comité d’évaluation, qui réunit différentes expertises et perspectives. Cela permet de partager la responsabilité, de croiser les regards et de consolider la crédibilité du processus. Et la Communauté d’apprentissage et de pratique en évaluation (CAP) de l’UQ a développé du matériel de formation et des outils que l'on peut utiliser. On peut également demander le regard d’ami·es critiques pour réfléchir à nos démarches.
J'aimerais bien en faire, de l’évaluation, mais je ne me vois pas en prendre la responsabilité.
mise en situation 7
11
Personnes professionnelles et intervenantes
Ça se comprend !
Le transfert entre la recherche et la pratique n’est pas toujours évident. Quand on collabore avec des spécialistes en évaluation du milieu universitaire, il peut y avoir un décalage entre la conception plus académique de l’évaluation et la réalité de la gestion et du terrain. Les résultats ne sont pas toujours directement « actionnables », et les conclusions peuvent sembler aller de soi. L’évaluation vient parfois confirmer ce qu’on pressentait déjà — ce qui donne l’impression d’avoir beaucoup investi pour peu de retombées nouvelles. Il arrive aussi que la collaboration soit difficile à ajuster. Certaines personnes peuvent partir avec la balle et ne pas forcément répondre aux préoccupations concrètes du milieu.
Cela dit…
Une mauvaise expérience ne résume pas tout. On peut bien sûr collaborer avec le milieu académique, tout en s’assurant que le contrat évaluatif soit porteur également pour l’établissement. Les universités regorgent d’expertises utiles : l’important, c’est de trouver la bonne façon de travailler ensemble — avec un objectif partagé et clair. Et il faut aussi le dire : on peut faire de l’évaluation sans faire de recherche. La Communauté d’apprentissage et de pratique en évaluation nous a par exemple permis de mener nos évaluations par nous-même. Dans cette perspective, l’évaluation devient un espace d’apprentissage collectif, au service de l’action. Cela prend du temps, certes, mais le processus lui-même a de la valeur : on s’approprie les réflexes de l’évaluation. Par ailleurs, même quand les résultats semblent modestes, on a au moins appris quelque chose : on connaît mieux la « souris », pour reprendre l’expression. Ou comme le dit Michael Quinn Patton, un chercheur américain, « Toutes les questions et réponses de l'évaluation (développementale) n'apportent pas de nouvelles perspectives. Il est parfois utile et important de confirmer ce que l'on sait déjà, simplement pour s'assurer que ce n'est pas une de ces choses que l'on pense savoir mais qui s'avèrent fausses. » Et au fond, mieux on connaît nos actions, mieux on en parle. L’évaluation nous aide à mettre les bons mots sur ce que l’on fait, à mieux en comprendre la portée et à donner plus de sens — et de crédibilité — à notre travail
J’ai déjà travaillé avec des spécialistes en évaluation parmi nos profs. On n’a pas appris grand-chose de nouveau. C’était beaucoup d’investissement pour accoucher d’une souris.
mise en situation 8
12
Cadres et responsables de portefeuille de projets
Ça se comprend !
Il est important d'évaluer nos programmes d’études et notre processus en ce sens est très normalisé et pertinent. Il est aussi nécessaire étant donné que cela fait partie de la mission universitaire. Il s’agit d’une obligation légale.
Cela dit…
Ce n’est pas ce dont on parle ici. On ne parle pas d’évaluation de programme d’enseignement. Il y a parfois une confusion dans notre milieu à cet égard. On ne parle pas d'ailleurs non plus d'évaluation des apprentissages, qui est une autre confusion dans notre milieu. On s’intéresse plutôt à l’évaluation des mesures et initiatives en matière de réussite ou de santé mentale étudiante. Ce n’est pas le même objet. La confusion vient du fait que les spécialistes en évaluation parlent d' « évaluation de programme ». Dans cette expression, le terme de « programme » est synonyme d'intervention ; il fait référence à tout type d'initiative visant à répondre à un enjeu ou un défi. Le processus de ce type d'évaluation est différent, de même que les objectifs poursuivis. On cherche notamment à évaluer la pertinence, la mise en oeuvre, les effets ou les impacts de nos initiatives de manière à fournir les arguments nécessaires pour la reconduction ou non du projet, ou identifier les ajustements nécessaires pour atteindre nos objectifs. Par exemple, à la suite de processus d'évaluation, on a apporté des changements importants dans le déploiement et les objectifs ciblés de deux actions de soutien à la réussite : le mentorat et les séances d'étude et de rédaction, afin de mieux répondre aux besoins de la communauté étudiante.
On fait déjà l’évaluation de notre programme d’études aux 5 ans. Pourquoi on en ferait une autre maintenant ? Je ne vois pas l’intérêt.
mise en situation 9
13
Cadres et responsables de portefeuille de projets
Ça se comprend !
Personne ne souhaite ajouter une charge supplémentaire à des équipes déjà très sollicitées. Et c’est vrai : si on ne prévoit pas du temps pour l’évaluation, il est presque certain que l’on n’y arrivera pas. On peut comprendre aussi qu'il est parfois difficile d'y voir l'intérêt : les projets d’évaluation sont encore rares dans nos établissements et il est possible que, jusqu’à présent, les évaluations réalisées n’aient pas vraiment été utilisées pour l’apprentissage ou l’amélioration et n'aient pas généré de valeur ajoutée. D'autant plus que, lorsque l’évaluation ne fait pas partie de nos pratiques et qu’elle n’est pas valorisée, on peut difficilement comprendre ce qu’elle peut réellement apporter. Il faut dire que la structure de nos équipes et de nos directions n’est pas vraiment pensée pour cela. On s’attend généralement à ce que nous démontrions l’ampleur de ce que nous faisons, dans une logique de rayonnement ou de reddition de comptes. Nous sommes en effet plutôt dans un contexte qui valorise l’action, au détriment parfois de la réflexion sur l’action.
Cela dit…
Et si l’évaluation devenait justement un levier pour réduire la surcharge ? Loin d’ajouter un poids supplémentaire, elle peut en effet ouvrir un espace pour examiner les processus et les projets en cours. En identifiant les freins, les actions qui n’atteignent pas leurs objectifs, ou encore les conditions qui rendent certaines initiatives plus efficaces que d’autres, l’évaluation permet d’améliorer les façons de faire et, à terme, de diminuer la charge de travail des équipes. La surcharge est parfois liée à des priorités mal évaluées. Par exemple, une équipe peut investir énormément d’énergie dans l’organisation d’activités qui, au final, contribuent peu aux objectifs poursuivis. Disposer d’éléments d’évaluation permet alors de rediriger les efforts vers des actions plus porteuses et d’utiliser le temps et l’énergie de manière plus optimale. L’évaluation peut aussi être mobilisatrice : elle aide les équipes à faire des choix éclairés, à se concentrer sur ce qui a le plus de valeur et à sortir d’un cercle vicieux où l’on fait toujours plus, sans nécessairement faire mieux. Elle fournit également des arguments solides pour appuyer des demandes de ressources ou revoir l’allocation des ressources existantes. S’inscrire dans une démarche évaluative, c’est donc aussi s’inscrire dans une logique d’amélioration et d’apprentissage collectif — au service du travail des équipes, et non à leur détriment.
Mon équipe est déjà surchargée de travail. Je ne vois pas l’intérêt de lui donner le mandat supplémentaire d’évaluer ce qu’elle fait.
mise en situation 10
14
Cadres et responsables de portefeuille de projets
Ça se comprend !
La volonté de relier directement les actions des services à des indicateurs comme le taux de diplomation est à la fois une exigence ministérielle et un réflexe de plus en plus répandu, dans un contexte où les données sont facilement accessibles et rapidement mobilisables. Toutefois, le taux de diplomation n’est qu’un indicateur parmi d’autres. La réussite étudiante est un phénomène multifactoriel : les données probantes montrent clairement qu’elle dépend de nombreux facteurs, bien au-delà de la seule réussite académique. Dans ce contexte, il est normal que l’idée de faire un lien direct entre ce que nous faisons et le taux de diplomation paraisse irréaliste. Il n’y a pas lieu d’établir une relation de causalité simple entre nos actions et cet indicateur global. Une telle approche simplifie à l’excès une réalité beaucoup plus complexe. Sans compter que les effets de plusieurs initiatives de soutien ne sont visibles qu’à moyen ou long terme, parfois après plusieurs années, ce qui rend encore plus délicate toute tentative de lien direct et immédiat avec les taux de diplomation.
Cela dit…
On associe souvent l’évaluation au suivi d’indicateurs globaux, comme le taux de diplomation. Or, ces indicateurs relèvent généralement d’une logique de reddition de compte, par exemple lorsqu’ils sont présentés dans des tableaux de suivi ou des tableaux synoptiques. Or, l’évaluation peut servir à autre chose. Elle peut permettre de mieux comprendre si, et comment, nos actions influencent certains déterminants de la réussite ou de la santé mentale étudiante. En effet, comment peut-on présumer que nos actions atteignent leurs objectifs si l’on ne prend jamais le temps de le vérifier? Dans cette perspective, le taux de diplomation n’est probablement pas l’effet le plus pertinent à observer en premier lieu. Il est souvent plus utile de commencer par des évaluations qui fournissent des indices sur notre capacité à agir sur des leviers concrets : l’intégration, le sentiment d’appartenance, l’engagement, la persévérance, par exemple. Autrement dit, regarder ce sur quoi nous avons réellement une influence et les leviers que nous pouvons mobiliser pour qu’à terme, cela contribue à la réussite. Les résultats de ces évaluations permettent aussi aux équipes d’ajuster leurs pratiques et leurs projets, et de soutenir le développement d’une organisation apprenante. En ce sens, l’évaluation nous aide à nous recentrer sur ce qui relève de notre champ d’action et sur ce que nous pouvons améliorer concrètement.
Je ne vois pas à quoi peut me servir l'évaluation : comment peut-on faire un lien entre ce que font nos services et le taux de diplomation ? Ça n'a pas de sens.
mise en situation 11
15
Cadres et responsables de portefeuille de projets
Ça se comprend !
Les plans d’action institutionnels sont, par nature, complexes. Ils touchent à plusieurs enjeux, mobilisent de nombreux acteurs, concernent différents champs d’intervention et s’inscrivent à divers niveaux de l’organisation. Ils reposent souvent sur une multitude d’actions portées par plusieurs équipes, voire plusieurs directions. Dans ce contexte, vouloir tout évaluer peut effectivement sembler ambitieux — et ce n’est ni toujours réaliste ni toujours nécessaire. Par ailleurs, certains indicateurs peuvent jouer un rôle très utile pour le pilotage. Ils permettent de prendre le pouls de la situation, de se faire une première idée de ce qui se passe et d’alimenter la réflexion. Utilisés dans un tableau de bord, les indicateurs peuvent aider à simplifier la lecture d’un ensemble complexe et à se poser les bonnes questions au bon moment.
Cela dit…
Les indicateurs offrent un portrait partiel de la réalité institutionnelle et laissent nécessairement des angles morts. Il est donc essentiel de se demander ce que ces indicateurs ne disent pas, et de s’assurer qu’ils sont bien construits — d’autant plus que, dans bien des cas, il s’agit surtout d’indicateurs de mise en œuvre. De plus, les indicateurs et l’évaluation ne s’opposent pas : ils se complètent. Le risque, autrement, est de « collecter des données pour collecter des données », sans réelle capacité d’interprétation ou d’action. L’évaluation permet justement d’enrichir et contextualiser les indicateurs. Il est également possible de découper un plan d’action pour cibler ce qui mérite d’être évalué : les actions les plus coûteuses, celles qui mobilisent beaucoup de personnes ou celles qui soulèvent des enjeux particuliers. Une démarche évaluative peut alors mettre en lumière des angles morts du plan d’action ou permettre par exemple d’observer des obstacles communs aux actions qui atteignent moins bien leurs objectifs. Au fond, l’évaluation incite à poser les bonnes questions : agit-on pour les bonnes raisons ? Le fait-on de la bonne manière ? Obtient-on les effets souhaités ? Elle permet aussi de faire vivre les plans d’action au-delà d’un cadre figé, dans une logique d’apprentissage et d’amélioration, afin de mieux comprendre ce que l’on fait et pouvoir s’ajuster en cours de route.
Notre plan d’action touche à tout : tous les acteurs, tous les champs, tous les niveaux… C’est trop complexe à évaluer. Concentrons-nous sur nos indicateurs.
mise en situation 12
16
Cadres et responsables de portefeuille de projets
Ça se comprend !
Les données administratives sont des outils très utiles pour le suivi et le pilotage. Les tableaux de bord sont essentiels : ils offrent une photographie de la situation à un moment donné et permettent de suivre l’évolution d’indicateurs clés en temps réel. Ils constituent souvent un premier pas important pour rendre explicite ce qui se passe dans nos établissements et pour mieux comprendre notre environnement. En ce sens, ce sont des outils concrets, parlants, qui peuvent mettre en évidence des zones de tension, des écarts ou des tendances à surveiller. Les tableaux de bord agissent donc comme une véritable porte d’entrée : ils aident à repérer où se situent les enjeux et à orienter l’attention vers les questions qui méritent d’être approfondies.
Cela dit…
Les indicateurs donnent une vision partielle et simplifiée de la réalité. Ils sont utiles, mais ne permettent pas, à eux seuls, de rendre compte de la complexité de ce se passe dans nos établissements. Pris isolément, ils risquent de devenir « l’arbre qui cache la forêt ». Par ailleurs, les indicateurs nous renseignent partiellement sur ce qui se passe, mais ils ne permettent pas d’expliquer pourquoi cela se produit. D’ailleurs, si le ministère de l’Enseignement supérieur (MES) ne nous demandait que de suivre des tableaux de bord pour comprendre ce qui se passe dans nos établissements, comment réagirions-nous ? De la même façon qu’un pays ne peut être compris uniquement à partir de son PIB, la réussite étudiante ne peut être saisie à partir de quelques chiffres agrégés. Par exemple, un taux élevé d’abandon lors de la première session ne signifie pas automatiquement que les services sont défaillants. Une évaluation ciblée pourrait permettre d’examiner l’apport des services d’accueil ou des ateliers destinés aux personnes étudiantes de première année, et de mieux comprendre ce qui soutient — ou freine — leur persévérance. L’évaluation vient donc compléter les tableaux de bord. Elle permet de donner de la profondeur aux données, d’éclairer leur évolution et de mettre en lumière des angles morts. Elle aide à comprendre les effets des actions mises en place et, par conséquent, à agir plus finement sur les leviers susceptibles d’influencer l’évolution d'indicateurs suivis, y compris ceux demandés par le MES.
On compile nos statistiques et on a développé un tableau de bord. On peut suivre en temps réel les indicateurs clés : pourquoi on ferait en plus de l’évaluation ?
mise en situation 13
17
Cadres et responsables de portefeuille de projets
Pour aller (un peu) plus loin : Identifiez les éléments qui jouent en votre faveur ou votre défaveur pour vos prochains échanges Voir : Les 3 Piliers de la Persuasion : Logos – Pathos – Ethos https://youtu.be/l6-QQircyEY
5 conseils pour que vos arguments en faveur de l'évaluation portent fruit
- Adaptez votre discours et vos arguments à votre interlocuteur ou interlocutrice
- Faites preuve de compréhension en demandant de préciser les enjeux (p. ex. : En quoi ? Pourquoi ? Que voulez-vous dire ?)
- Reformulez les enjeux nommés pour vous assurer de bien comprendre la nature des obstacles ou l’origine des incompréhensions
- Mobilisez des exemples concrets de votre expérience ou d’expériences dont vous avez connaissance pour appuyer vos arguments
- Évitez de réagir avec émotion lorsque vos arguments ne semblent pas entendus
Découvrez les autres outils de la collection
- La boîte à outils de l’évaluation des actions de soutien à la réussite et à la santé mentale étudiantes
- S’initier à l’évaluation des actions de soutien à la réussite et à la santé mentale étudiantes
Disponibles sur le site de la Docuthèque de l'Université du Québec : https://docutheque.uquebec.ca/
Pour citer ce document :
Communauté d’apprentissage et de pratique en évaluation de l’Université du Québec. (2026). 13 mises en situation pour dépasser les idées reçues sur l’évaluation en enseignement supérieur. [Ressource pédagogique interactive] (Repères en évaluation : Ressources de la Communauté d’apprentissage et de pratique en évaluation de l’Université du Québec. Université du Québec. Disponible à : https://docutheque.uquebec.ca/id/eprint/594
Document également disponible en version interactive : https://view.genially.com/69bc0da78666e3fa220f98f1
Repères CAP UQ : 13 mises en situation
pedagogie
Created on March 19, 2026
Start designing with a free template
Discover more than 1500 professional designs like these:
View
Higher Education Presentation
View
Psychedelic Presentation
View
Harmony Higher Education Thesis
View
Vaporwave presentation
View
Geniaflix Presentation
View
Vintage Mosaic Presentation
View
Modern Zen Presentation
Explore all templates
Transcript
Repères en évaluation : Ressources de la Communauté d'apprentissage et de pratique en évaluation de l'Université du Québec
mises en situation pour Dépasser les idées reçues sur l'évaluation en enseignement supérieur
13
2026
Contributions
Coordination des travaux : Emilie Robert, Conseillère en évaluation à l’Université du Québec, Professeure associée à l’École nationale d’administration publique (ÉNAP)
Comité d’édition : Jennifer Smith, Professeure au département des sciences de l'éducation, Université du Québec en Outaouais (UQO)Martin Villemure, Coordonnateur de la réussite, Université du Québec en Abitibi-Témiscamingue (UQAT)Olivier Ringuet, Directeur adjoint, Expérience étudiante (Bureau des projets académiques), École de technologie supérieure (ÉTS)Emilie Robert, Conseillère en évaluation à l’Université du Québec et Professeure associée à l’ÉNAP
Ce document a été préparé par les membres de la Communauté d’apprentissage et de pratique en évaluation de l’Université du Québec. Un comité d’édition a complété et révisé l’ensemble du contenu du document. Le logiciel ChatGPT-4.1 d’OpenAI a été utilisé pour harmoniser l’écriture des mises en situation.Les mises en situation sont inspirées de situations entendues dans le milieu de l’enseignement supérieur au Québec, ainsi que reprises ou adaptées des « bonnes raisons de ne pas faire de l’évaluation » issues de Evalophobia (Strategic Design Scenarios et Quadrant Conseil, 2018) : https://www.sustainable-everyday-project.net/evalophobia/ Les photographies proviennent de la banque d'images Unsplash sous la licence suivante : « Licence de droit d’auteur irrévocable, non exclusive et mondiale pour télécharger, copier, modifier, distribuer, exécuter et utiliser des images d’Unsplash gratuitement, y compris à des fins commerciales, sans autorisation ou attribution du photographe ou d’Unsplash. Cette licence n’inclut pas le droit de compiler des images d’Unsplash pour répliquer un service similaire ou concurrent. »
Contexte
Depuis 2022, les établissements de l’Université du Québec se forment et s’outillent pour évaluer leurs actions de soutien à la réussite et à la santé mentale étudiantes. Les actrices et acteurs de l’évaluation dans ces universités sont réunis au sein d’une Communauté de pratique et d’apprentissage en évaluation. Les membres de cette Communauté privilégient une posture évaluative axée sur l’apprentissage et l’utilisation des résultats pour l’amélioration des pratiques et des interventions au service des personnes étudiantes, tout en reconnaissant la pertinence d’autres postures dans d’autres contextes. Ce document est destiné à toute personne d’un établissement d’enseignement supérieur portant un mandat d’évaluation ou de renforcement des capacités en évaluation, dans une posture similaire. Il vise à :
Organisation de l'outil
Le document recense 13 mises en situation au sein de l’administration d’établissements d’enseignement supérieur :
Chaque mise en situation repose sur :
Le document termine par 5 conseils pour que les arguments en faveur de l’évaluation portent fruit.
Mises en situation
Personnes professionnelles et intervenantes
Cadres et responsables de portefeuille de projets
8 . J’ai déjà travaillé avec des spécialistes en évaluation parmi nos profs. On n’a pas appris grand-chose de nouveau. C’était beaucoup d’investissement pour accoucher d’une souris. 9 . On fait déjà l’évaluation de notre programme d’études aux 5 ans. Pourquoi on en ferait une autre maintenant ? 10 . Mon équipe est déjà surchargée de travail. Je ne vois pas l’intérêt de lui donner le mandat supplémentaire d’évaluer ce qu’elle fait. 11 . Je ne vois pas à quoi peut me servir l'évaluation : comment peut-on faire un lien entre ce que font nos services et le taux de diplomation ? Ça n'a pas de sens. 12 . Notre plan d’action touche à tout : tous les acteurs, tous les champs, tous les niveaux… C’est trop complexe à évaluer. Concentrons-nous sur nos indicateurs. 13 . On compile nos statistiques et on a développé un tableau de bord. On peut suivre en temps réel les indicateurs clés : pourquoi on ferait en plus de l’évaluation ?
1 . C'est épeurant de se dire que l'évaluation va juger mon travail et mes compétences. 2 . L'évaluation rime avec inspection, contrôle de gestion, sanction : ça ne fait pas envie. 3 . L'évaluation, c'est compliqué à mettre en œuvre et ça prend toujours un temps fou ! 4 . On évalue déjà : on a identifié les besoins. Et on n'a pas à faire une évaluation pour savoir ce qui ne fonctionne pas. 5 . On évalue déjà : on a un questionnaire de satisfaction. Et on fait un bilan chaque année. On n'a pas besoin d'en faire plus... 6 . Je n'y comprends rien en évaluation... Modèle logique, théorie d'intervention, efficacité, efficience, résultats, impacts... C'est dérougeant ! 7 . J'aimerais bien en faire, de l’évaluation, mais je ne me vois pas en porter la responsabilité.
Ça se comprend !
Depuis l’école, nous avons l’habitude d’être notés, comparés. Nos performances ont souvent été liées à des récompenses ou des conséquences négatives, et notre rapport à l’évaluation est teinté par ces expériences personnelles. Dans notre travail aussi, nous sommes évalués par nos directions (dans les évaluations de rendement par exemple), ce qui peut renforcer l’idée que l’évaluation sert à juger si l’on est « bon » ou « suffisamment efficace ». Dans ce contexte, il est normal que l’évaluation puisse faire peur : elle peut évoquer le risque d’être mis en défaut plutôt que la possibilité de progresser. D’autant plus que certaines approches d’évaluation sont parfois imposées (comme les redditions de compte ministérielles) et peuvent entraîner des conséquences sur notre travail. Et il faut le reconnaître : on peine parfois à expliquer clairement la finalité de l’évaluation, ce qui peut ajouter à l’incertitude.
Cela dit…
L’évaluation ne vise pas uniquement à mettre le doigt sur ce qui ne va pas. Elle peut aussi mettre en lumière nos réussites, la qualité de nos actions, et les effets que nous générons pour les personnes étudiantes. En effet, il existe plusieurs formes d’évaluation. Par exemple, l’évaluation peut porter sur une action, une initiative, un processus. Dans cette perspective, elle ne vise pas à juger une personne. Bien au contraire ! Dans nos établissements, nous agissons souvent à plusieurs : l’évaluation permet donc de comprendre ce qui fonctionne collectivement, pas de pointer du doigt une seule personne. On peut d’ailleurs être partenaire de la démarche : participer à définir les questions importantes, à collecter des données, à interpréter les résultats, à réfléchir aux suites. L’évaluation devient alors un espace d’apprentissage, plutôt qu’un verdict extérieur. Quand elle est bien faite, l’évaluation sert d’abord à nous aider à nous ajuster : mieux comprendre l’expérience étudiante, réaligner nos efforts, continuer ce qui fonctionne bien, améliorer ce qui peut être bonifié. C’est également une occasion de redonner du sens à notre travail, de reconnaître ce qui marche, et de continuer à progresser en équipe. Enfin, il est important que l’évaluation se fasse dans un climat de confiance, avec des personnes qui reconnaissent le travail accompli et qui souhaitent réellement faire avancer les choses.
C'est épeurant de se dire que l'évaluation va juger mon travail et mes compétences.
mise en situation 1
Personnes professionnelles et intervenantes
Ça se comprend !
Dans beaucoup d’organisations, le mot « évaluation » est associé à l’inspection, au contrôle de gestion et à la sanction. L’essor de la gestion axée sur les résultats, centrée sur des métriques et des tableaux de bord, a également contribué à une vision très comptable et souvent réductrice de ce que peut être l’évaluation. Il y a aussi parfois une confusion avec des processus comme les audits financiers ou organisationnels, ou encore les contrôles qualité — des démarches qui visent avant tout la conformité, qui pointent les écarts, et qui reposent sur des règles strictes plutôt que sur des processus adaptés au contexte et aux besoins. En outre, dans certaines disciplines liées à l’administration — comme les ressources humaines ou la comptabilité — l’évaluation est historiquement plus normative, plus sommative, plus axée sur le jugement. On comprend donc que cette culture influence nos représentations. Et il est vrai qu’il existe des évaluations auxquelles on ne peut pas échapper, avec des visées de contrôle ou même des usages détournés.
Cela dit…
L’évaluation, ce n’est pas que ça. Ce n’est pas que du contrôle ou que des chiffres. Par exemple, on peut aussi s’intéresser à l’humain : à l’expérience des personnes étudiantes, à leurs perceptions, à ce qu’elles vivent réellement. C’est d’ailleurs très aligné avec la mission universitaire : comprendre, accompagner, permettre le développement du plein potentiel. Et ces expériences, on peut en rendre compte autant avec des données quantitatives que des données qualitatives. En outre, l’évaluation peut aussi servir à mettre en lumière ce qui fonctionne bien — et à comprendre pourquoi cela fonctionne. Cela nous aide à renforcer ce qui est porteur, à ajuster ce qui peut l’être, et à éviter des impacts non voulus sur les personnes étudiantes. Et puis, ne pas évaluer, ce n’est pas neutre : cela ouvre la porte aux décisions basées sur des impressions ou des préjugés. On peut voir des initiatives disparaître simplement parce qu’on croit — sans preuve — qu’elles ne servent à rien. L’évaluation, au contraire, nous permet de montrer l’utilité de ce que l’on fait, d’expliquer notre contribution et d’avoir plus d’influence dans la prise de décision. Au fond, l’évaluation peut devenir un outil pour nous : elle donne du sens, elle soutient la qualité, elle renforce notre capacité à agir et à faire reconnaître notre travail. On investit tellement d’énergie dans la planification : investir aussi dans l’apprentissage à partir de l’évaluation, c’est ce qui nous permet d’avancer avec plus de clarté et de confiance.
L'évaluation rime avec inspection, contrôle de gestion, sanction : ça ne fait pas envie !
mise en situation 2
Personnes professionnelles et intervenantes
Ça se comprend !
Il est vrai que l’évaluation peut être parfois perçue comme une pratique complexe et exigeante. Pour les personnes qui ont de nouveaux mandats d’évaluation, comme pour celles que l’on sollicite pour des projets d’évaluation (soit parce qu’elles portent des projets ou que l’on souhaite les impliquer dans une démarche d’évaluation participative), il s’agit d’un domaine qui nécessite un certain apprentissage. L’évaluation mobilise en effet un vocabulaire spécialisé, des outils spécifiques et des façons de faire qui ne sont pas encore pleinement intégrées dans le milieu de l’enseignement supérieur. En outre, l’adhésion des équipes n’est pas automatique. Par ailleurs, une évaluation rigoureuse demande du temps : il faut planifier, organiser, définir les besoins en information et coordonner la collecte de données, mobiliser les équipes qui n’adhèrent pas toujours à l’exercice, etc. Et tout cela, en poursuivant des tâches courantes déjà nombreuses et identifiées comme prioritaires. Car malheureusement, l’évaluation n’est pas toujours vue comme une responsabilité incontournable ; elle est parfois reléguée au second plan parmi d’autres obligations institutionnelles. Dans ce contexte, il arrive qu’on se sente isolé, d’autant plus lorsque l’appui de la direction n’est pas clairement affirmé. Ces conditions contribuent à l’impression que l’évaluation est à la fois complexe, chronophage et difficile à intégrer dans les pratiques habituelles.
Cela dit…
L'évaluation, c'est compliqué à mettre en œuvre et ça prend toujours un temps fou !
L’évaluation aide à prendre des décisions éclairées pour mettre en place des actions réellement pertinentes. Elle nous permet de répondre à la question essentielle : « Qu’est-ce que cela apporte concrètement ? », en mettant en lumière la capacité de nos actions à générer des retombées pour les personnes étudiantes. À long terme, elle peut faire gagner du temps : il s’agit d’un investissement qui permet de consolider les initiatives les plus porteuses, plutôt que de reproduire des actions dont la portée reste incertaine. Mieux vaut prendre le temps de bien évaluer et d’ajuster nos pratiques que de maintenir un service qui n’atteint pas ses objectifs — ce qui peut se révéler beaucoup plus coûteux en temps et en énergie. Et, comme le dit le proverbe : « C’est en forgeant que l’on devient forgeron » — les concepts et les réflexes d’évaluation s’intègrent en les pratiquant. Il faut se lancer ! Les outils de la Communauté d’apprentissage et de pratique en évaluation pourraient être utiles pour partir du bon pied.
mise en situation 3
Personnes professionnelles et intervenantes
Ça se comprend !
C’est un excellent point de départ d’avoir identifié les besoins. Les démarches diagnostiques ou d’analyse des causes racines qui se traduisent en besoins sont en effet généralement peu exploitées dans nos milieux. Par ailleurs, votre sensibilité aux défis ou aux limites de certaines de vos actions témoigne déjà d’un réflexe d’analyse critique. En d’autres mots, vous possédez déjà l’essentiel du réflexe évaluatif : vous observez, vous questionnez, vous souhaitez améliorer vos pratiques.
Cela dit…
Pourquoi s'arrêter là ? Une démarche d’évaluation structurée donnerait les moyens d’appuyer ces intuitions, d’en tirer des apprentissages solides et d’orienter les décisions avec davantage de confiance. D’autant plus que l’on confond souvent l’évaluation des besoins et l’évaluation des actions, alors qu’il s’agit de deux démarches différentes. L'évaluation des actions ou des projets que l’on met en place va en effet au-delà de l’analyse des besoins. Elle permet de confirmer – ou non – vos intuitions, notamment sur ce qui ne fonctionne pas. Surtout si d’autres personnes ne sont pas d’accord avec votre perception de la situation. Et il ne s’agit pas seulement de valider la pertinence de ce que l’on fait. On peut aussi examiner la mise en œuvre, les effets, les retombées. Sans cela, comment savoir que ce qui semble ne pas fonctionner est réellement le bon élément à remettre en question ? Par exemple, on peut avoir mis en place un webinaire pour répondre à un besoin précis. Si la mise en œuvre se déroule mal et que l’activité ne donne pas les résultats attendus, on pourrait être tenté de conclure que le format n’était pas adéquat. Pourtant, un problème d’exécution ne signifie pas que le choix du webinaire n’était pas pertinent pour répondre à l’objectif initial.
On évalue déjà : on a identifié les besoins. Et on n'a pas à faire une évaluation pour savoir ce qui ne fonctionne pas !
mise en situation 4
Personnes professionnelles et intervenantes
Ça se comprend !
Vous avez d’autres responsabilités et il n’est pas utile d’évaluer plus que nécessaire. L’évaluation de la satisfaction est par ailleurs déjà une bonne pratique, car cela permet de s'assurer que les actions sont appréciées des publics cibles. En outre, les bilans permettent de faire état des réalisations et également des succès : cela doit être encourageant !
Cela dit…
On a parfois tendance à considérer que les données de satisfaction suffisent à évaluer des actions. Pourtant, ce type d’information ne permet ni d’examiner la mise en œuvre, ni d’apprécier les effets, ni d’estimer les retombées attendues des initiatives. Les données de satisfaction, à elles seules, ne nous donnent aucun argument solide pour décider de maintenir, d’ajuster ou d’abandonner une action au regard des objectifs fixés. On peut ainsi continuer à offrir des services que l’on croit pertinents et utiles, sans pouvoir en apporter la démonstration. Une démarche évaluative permettrait d’examiner par exemple l’atteinte des objectifs. Ainsi, dans le cas d’un projet de mentorat, les personnes étudiantes peuvent se dire satisfaites, mais le mentorat a–t-il réellement contribué à l’objectif visé — qu’il s’agisse de persévérance, d’intégration, d’accueil ou de réussite ? Et comment peut-on savoir que on doit ajuster l’action, si on ne dispose pas de ces informations ?
On évalue déjà : on a un questionnaire de satisfaction. Et on fait un bilan chaque année. On n'a pas besoin d'en faire plus...
mise en situation 5
Personnes professionnelles et intervenantes
Ça se comprend !
Quand on s’implique pour la première fois dans l’évaluation, on se retrouve devant une foule de concepts et cela peut donner le vertige. Tout ça peut paraître opaque, compliqué au début et on peut ne pas voir tout de suite à quoi servent les différents outils. On peut aussi se sentir dépassé, pas assez outillé, ou même douter de ses capacités. Ça brasse nos repères et ça nous sort de notre zone de confiance. Si c'était si facile, tout le monde s’y mettrait sans hésiter ! Comme pour n’importe quel métier, il y a des choses à apprendre… Et en évaluation, la famille des approches est particulièrement large. On aimerait bien qu’il existe un mode d’emploi simple, comme pour monter un meuble Ikea !
Cela dit…
On ne part jamais vraiment de zéro et ce n’est pas tout à fait vrai qu'on n'y comprend rien : en réalité, on est en pleine courbe d’apprentissage. L’évaluation se construit morceau par morceau. Il existe une logique, des étapes, un fil conducteur : on avance une brique à la fois, et ça devient beaucoup plus clair. De plus, on n’est pas obligé de tout mobiliser d’un seul coup. On peut avancer pas à pas, selon le besoin. C’est comme ça que l’on apprend, et que ça finit par devenir naturel. En effet, l’évaluation nécessite des compétences très concrètes : on les intègre surtout en les mettant en pratique. Les concepts prennent vraiment sens lorsqu’on les applique au moins une fois dans un vrai contexte. Par ailleurs, les outils et les notions peuvent paraître nombreux, mais ils ne sont que le reflet de tout ce que l’évaluation permet de faire : c’est cette richesse qui crée l’impression de complexité. À l'Université du Québec, on n’est pas seul. La Communauté d’apprentissage et de pratique en évaluation a produit plusieurs outils, et ses membres peuvent accompagner ou aiguiller leurs collègues au besoin. La question est : comment faire pour retrouver confiance et passer à l'étape suivante ?
Je n'y comprends rien en évaluation. Modèle logique, théorie d'intervention, efficacité, efficience, résultats, impacts... C'est décourageant !
mise en situation 6
10
Personnes professionnelles et intervenantes
Ça se comprend !
L’évaluation peut sembler une grande responsabilité à porter sur ses épaules. C’est normal de ne pas trop savoir par où commencer, ou de ne pas se sentir tout à fait légitime pour le faire. Dans beaucoup de milieux, la culture évaluative n’est pas encore bien ancrée : il n’y a pas toujours de structures, ni d’équipes clairement mandatées pour s’en occuper. Il arrive alors qu’une personne devienne, un peu par hasard, le point de chute pour toutes les questions d’évaluation — qu’elle se retrouve à coordonner, à mobiliser, à faire avancer les choses sans soutien officiel. On compte encore souvent sur la bonne volonté des gens : « Si ça te tente d’évaluer, vas-y ! » Mais sans ressources, ni accompagnement, c’est un fardeau lourd à porter.
Cela dit…
L’évaluation ne devrait pas reposer sur les épaules d’une seule personne, surtout si l’institution n’a pas encore donné les moyens institutionnels de le faire — c’est-à-dire un mandat clair, inscrit dans des fonctions reconnues, et non attribué à titre individuel. De toute façon, l’évaluation gagne à être collective. Travailler en équipe permet d’entendre d’autres points de vue, de mieux choisir les outils de collecte, d’affiner les formulations — par exemple lorsqu’on parle d’« efficacité » ou de « résultats ». C’est ensemble que l’on donne du sens et de la rigueur à la démarche. Il est possible d'identifier un ou une collègue pour nous appuyer l’évaluation, quelqu’un qui a envie de tester de nouvelles approches et d’apprendre en pratiquant. Une autre bonne pratique consiste à mettre sur pied un comité d’évaluation, qui réunit différentes expertises et perspectives. Cela permet de partager la responsabilité, de croiser les regards et de consolider la crédibilité du processus. Et la Communauté d’apprentissage et de pratique en évaluation (CAP) de l’UQ a développé du matériel de formation et des outils que l'on peut utiliser. On peut également demander le regard d’ami·es critiques pour réfléchir à nos démarches.
J'aimerais bien en faire, de l’évaluation, mais je ne me vois pas en prendre la responsabilité.
mise en situation 7
11
Personnes professionnelles et intervenantes
Ça se comprend !
Le transfert entre la recherche et la pratique n’est pas toujours évident. Quand on collabore avec des spécialistes en évaluation du milieu universitaire, il peut y avoir un décalage entre la conception plus académique de l’évaluation et la réalité de la gestion et du terrain. Les résultats ne sont pas toujours directement « actionnables », et les conclusions peuvent sembler aller de soi. L’évaluation vient parfois confirmer ce qu’on pressentait déjà — ce qui donne l’impression d’avoir beaucoup investi pour peu de retombées nouvelles. Il arrive aussi que la collaboration soit difficile à ajuster. Certaines personnes peuvent partir avec la balle et ne pas forcément répondre aux préoccupations concrètes du milieu.
Cela dit…
Une mauvaise expérience ne résume pas tout. On peut bien sûr collaborer avec le milieu académique, tout en s’assurant que le contrat évaluatif soit porteur également pour l’établissement. Les universités regorgent d’expertises utiles : l’important, c’est de trouver la bonne façon de travailler ensemble — avec un objectif partagé et clair. Et il faut aussi le dire : on peut faire de l’évaluation sans faire de recherche. La Communauté d’apprentissage et de pratique en évaluation nous a par exemple permis de mener nos évaluations par nous-même. Dans cette perspective, l’évaluation devient un espace d’apprentissage collectif, au service de l’action. Cela prend du temps, certes, mais le processus lui-même a de la valeur : on s’approprie les réflexes de l’évaluation. Par ailleurs, même quand les résultats semblent modestes, on a au moins appris quelque chose : on connaît mieux la « souris », pour reprendre l’expression. Ou comme le dit Michael Quinn Patton, un chercheur américain, « Toutes les questions et réponses de l'évaluation (développementale) n'apportent pas de nouvelles perspectives. Il est parfois utile et important de confirmer ce que l'on sait déjà, simplement pour s'assurer que ce n'est pas une de ces choses que l'on pense savoir mais qui s'avèrent fausses. » Et au fond, mieux on connaît nos actions, mieux on en parle. L’évaluation nous aide à mettre les bons mots sur ce que l’on fait, à mieux en comprendre la portée et à donner plus de sens — et de crédibilité — à notre travail
J’ai déjà travaillé avec des spécialistes en évaluation parmi nos profs. On n’a pas appris grand-chose de nouveau. C’était beaucoup d’investissement pour accoucher d’une souris.
mise en situation 8
12
Cadres et responsables de portefeuille de projets
Ça se comprend !
Il est important d'évaluer nos programmes d’études et notre processus en ce sens est très normalisé et pertinent. Il est aussi nécessaire étant donné que cela fait partie de la mission universitaire. Il s’agit d’une obligation légale.
Cela dit…
Ce n’est pas ce dont on parle ici. On ne parle pas d’évaluation de programme d’enseignement. Il y a parfois une confusion dans notre milieu à cet égard. On ne parle pas d'ailleurs non plus d'évaluation des apprentissages, qui est une autre confusion dans notre milieu. On s’intéresse plutôt à l’évaluation des mesures et initiatives en matière de réussite ou de santé mentale étudiante. Ce n’est pas le même objet. La confusion vient du fait que les spécialistes en évaluation parlent d' « évaluation de programme ». Dans cette expression, le terme de « programme » est synonyme d'intervention ; il fait référence à tout type d'initiative visant à répondre à un enjeu ou un défi. Le processus de ce type d'évaluation est différent, de même que les objectifs poursuivis. On cherche notamment à évaluer la pertinence, la mise en oeuvre, les effets ou les impacts de nos initiatives de manière à fournir les arguments nécessaires pour la reconduction ou non du projet, ou identifier les ajustements nécessaires pour atteindre nos objectifs. Par exemple, à la suite de processus d'évaluation, on a apporté des changements importants dans le déploiement et les objectifs ciblés de deux actions de soutien à la réussite : le mentorat et les séances d'étude et de rédaction, afin de mieux répondre aux besoins de la communauté étudiante.
On fait déjà l’évaluation de notre programme d’études aux 5 ans. Pourquoi on en ferait une autre maintenant ? Je ne vois pas l’intérêt.
mise en situation 9
13
Cadres et responsables de portefeuille de projets
Ça se comprend !
Personne ne souhaite ajouter une charge supplémentaire à des équipes déjà très sollicitées. Et c’est vrai : si on ne prévoit pas du temps pour l’évaluation, il est presque certain que l’on n’y arrivera pas. On peut comprendre aussi qu'il est parfois difficile d'y voir l'intérêt : les projets d’évaluation sont encore rares dans nos établissements et il est possible que, jusqu’à présent, les évaluations réalisées n’aient pas vraiment été utilisées pour l’apprentissage ou l’amélioration et n'aient pas généré de valeur ajoutée. D'autant plus que, lorsque l’évaluation ne fait pas partie de nos pratiques et qu’elle n’est pas valorisée, on peut difficilement comprendre ce qu’elle peut réellement apporter. Il faut dire que la structure de nos équipes et de nos directions n’est pas vraiment pensée pour cela. On s’attend généralement à ce que nous démontrions l’ampleur de ce que nous faisons, dans une logique de rayonnement ou de reddition de comptes. Nous sommes en effet plutôt dans un contexte qui valorise l’action, au détriment parfois de la réflexion sur l’action.
Cela dit…
Et si l’évaluation devenait justement un levier pour réduire la surcharge ? Loin d’ajouter un poids supplémentaire, elle peut en effet ouvrir un espace pour examiner les processus et les projets en cours. En identifiant les freins, les actions qui n’atteignent pas leurs objectifs, ou encore les conditions qui rendent certaines initiatives plus efficaces que d’autres, l’évaluation permet d’améliorer les façons de faire et, à terme, de diminuer la charge de travail des équipes. La surcharge est parfois liée à des priorités mal évaluées. Par exemple, une équipe peut investir énormément d’énergie dans l’organisation d’activités qui, au final, contribuent peu aux objectifs poursuivis. Disposer d’éléments d’évaluation permet alors de rediriger les efforts vers des actions plus porteuses et d’utiliser le temps et l’énergie de manière plus optimale. L’évaluation peut aussi être mobilisatrice : elle aide les équipes à faire des choix éclairés, à se concentrer sur ce qui a le plus de valeur et à sortir d’un cercle vicieux où l’on fait toujours plus, sans nécessairement faire mieux. Elle fournit également des arguments solides pour appuyer des demandes de ressources ou revoir l’allocation des ressources existantes. S’inscrire dans une démarche évaluative, c’est donc aussi s’inscrire dans une logique d’amélioration et d’apprentissage collectif — au service du travail des équipes, et non à leur détriment.
Mon équipe est déjà surchargée de travail. Je ne vois pas l’intérêt de lui donner le mandat supplémentaire d’évaluer ce qu’elle fait.
mise en situation 10
14
Cadres et responsables de portefeuille de projets
Ça se comprend !
La volonté de relier directement les actions des services à des indicateurs comme le taux de diplomation est à la fois une exigence ministérielle et un réflexe de plus en plus répandu, dans un contexte où les données sont facilement accessibles et rapidement mobilisables. Toutefois, le taux de diplomation n’est qu’un indicateur parmi d’autres. La réussite étudiante est un phénomène multifactoriel : les données probantes montrent clairement qu’elle dépend de nombreux facteurs, bien au-delà de la seule réussite académique. Dans ce contexte, il est normal que l’idée de faire un lien direct entre ce que nous faisons et le taux de diplomation paraisse irréaliste. Il n’y a pas lieu d’établir une relation de causalité simple entre nos actions et cet indicateur global. Une telle approche simplifie à l’excès une réalité beaucoup plus complexe. Sans compter que les effets de plusieurs initiatives de soutien ne sont visibles qu’à moyen ou long terme, parfois après plusieurs années, ce qui rend encore plus délicate toute tentative de lien direct et immédiat avec les taux de diplomation.
Cela dit…
On associe souvent l’évaluation au suivi d’indicateurs globaux, comme le taux de diplomation. Or, ces indicateurs relèvent généralement d’une logique de reddition de compte, par exemple lorsqu’ils sont présentés dans des tableaux de suivi ou des tableaux synoptiques. Or, l’évaluation peut servir à autre chose. Elle peut permettre de mieux comprendre si, et comment, nos actions influencent certains déterminants de la réussite ou de la santé mentale étudiante. En effet, comment peut-on présumer que nos actions atteignent leurs objectifs si l’on ne prend jamais le temps de le vérifier? Dans cette perspective, le taux de diplomation n’est probablement pas l’effet le plus pertinent à observer en premier lieu. Il est souvent plus utile de commencer par des évaluations qui fournissent des indices sur notre capacité à agir sur des leviers concrets : l’intégration, le sentiment d’appartenance, l’engagement, la persévérance, par exemple. Autrement dit, regarder ce sur quoi nous avons réellement une influence et les leviers que nous pouvons mobiliser pour qu’à terme, cela contribue à la réussite. Les résultats de ces évaluations permettent aussi aux équipes d’ajuster leurs pratiques et leurs projets, et de soutenir le développement d’une organisation apprenante. En ce sens, l’évaluation nous aide à nous recentrer sur ce qui relève de notre champ d’action et sur ce que nous pouvons améliorer concrètement.
Je ne vois pas à quoi peut me servir l'évaluation : comment peut-on faire un lien entre ce que font nos services et le taux de diplomation ? Ça n'a pas de sens.
mise en situation 11
15
Cadres et responsables de portefeuille de projets
Ça se comprend !
Les plans d’action institutionnels sont, par nature, complexes. Ils touchent à plusieurs enjeux, mobilisent de nombreux acteurs, concernent différents champs d’intervention et s’inscrivent à divers niveaux de l’organisation. Ils reposent souvent sur une multitude d’actions portées par plusieurs équipes, voire plusieurs directions. Dans ce contexte, vouloir tout évaluer peut effectivement sembler ambitieux — et ce n’est ni toujours réaliste ni toujours nécessaire. Par ailleurs, certains indicateurs peuvent jouer un rôle très utile pour le pilotage. Ils permettent de prendre le pouls de la situation, de se faire une première idée de ce qui se passe et d’alimenter la réflexion. Utilisés dans un tableau de bord, les indicateurs peuvent aider à simplifier la lecture d’un ensemble complexe et à se poser les bonnes questions au bon moment.
Cela dit…
Les indicateurs offrent un portrait partiel de la réalité institutionnelle et laissent nécessairement des angles morts. Il est donc essentiel de se demander ce que ces indicateurs ne disent pas, et de s’assurer qu’ils sont bien construits — d’autant plus que, dans bien des cas, il s’agit surtout d’indicateurs de mise en œuvre. De plus, les indicateurs et l’évaluation ne s’opposent pas : ils se complètent. Le risque, autrement, est de « collecter des données pour collecter des données », sans réelle capacité d’interprétation ou d’action. L’évaluation permet justement d’enrichir et contextualiser les indicateurs. Il est également possible de découper un plan d’action pour cibler ce qui mérite d’être évalué : les actions les plus coûteuses, celles qui mobilisent beaucoup de personnes ou celles qui soulèvent des enjeux particuliers. Une démarche évaluative peut alors mettre en lumière des angles morts du plan d’action ou permettre par exemple d’observer des obstacles communs aux actions qui atteignent moins bien leurs objectifs. Au fond, l’évaluation incite à poser les bonnes questions : agit-on pour les bonnes raisons ? Le fait-on de la bonne manière ? Obtient-on les effets souhaités ? Elle permet aussi de faire vivre les plans d’action au-delà d’un cadre figé, dans une logique d’apprentissage et d’amélioration, afin de mieux comprendre ce que l’on fait et pouvoir s’ajuster en cours de route.
Notre plan d’action touche à tout : tous les acteurs, tous les champs, tous les niveaux… C’est trop complexe à évaluer. Concentrons-nous sur nos indicateurs.
mise en situation 12
16
Cadres et responsables de portefeuille de projets
Ça se comprend !
Les données administratives sont des outils très utiles pour le suivi et le pilotage. Les tableaux de bord sont essentiels : ils offrent une photographie de la situation à un moment donné et permettent de suivre l’évolution d’indicateurs clés en temps réel. Ils constituent souvent un premier pas important pour rendre explicite ce qui se passe dans nos établissements et pour mieux comprendre notre environnement. En ce sens, ce sont des outils concrets, parlants, qui peuvent mettre en évidence des zones de tension, des écarts ou des tendances à surveiller. Les tableaux de bord agissent donc comme une véritable porte d’entrée : ils aident à repérer où se situent les enjeux et à orienter l’attention vers les questions qui méritent d’être approfondies.
Cela dit…
Les indicateurs donnent une vision partielle et simplifiée de la réalité. Ils sont utiles, mais ne permettent pas, à eux seuls, de rendre compte de la complexité de ce se passe dans nos établissements. Pris isolément, ils risquent de devenir « l’arbre qui cache la forêt ». Par ailleurs, les indicateurs nous renseignent partiellement sur ce qui se passe, mais ils ne permettent pas d’expliquer pourquoi cela se produit. D’ailleurs, si le ministère de l’Enseignement supérieur (MES) ne nous demandait que de suivre des tableaux de bord pour comprendre ce qui se passe dans nos établissements, comment réagirions-nous ? De la même façon qu’un pays ne peut être compris uniquement à partir de son PIB, la réussite étudiante ne peut être saisie à partir de quelques chiffres agrégés. Par exemple, un taux élevé d’abandon lors de la première session ne signifie pas automatiquement que les services sont défaillants. Une évaluation ciblée pourrait permettre d’examiner l’apport des services d’accueil ou des ateliers destinés aux personnes étudiantes de première année, et de mieux comprendre ce qui soutient — ou freine — leur persévérance. L’évaluation vient donc compléter les tableaux de bord. Elle permet de donner de la profondeur aux données, d’éclairer leur évolution et de mettre en lumière des angles morts. Elle aide à comprendre les effets des actions mises en place et, par conséquent, à agir plus finement sur les leviers susceptibles d’influencer l’évolution d'indicateurs suivis, y compris ceux demandés par le MES.
On compile nos statistiques et on a développé un tableau de bord. On peut suivre en temps réel les indicateurs clés : pourquoi on ferait en plus de l’évaluation ?
mise en situation 13
17
Cadres et responsables de portefeuille de projets
Pour aller (un peu) plus loin : Identifiez les éléments qui jouent en votre faveur ou votre défaveur pour vos prochains échanges Voir : Les 3 Piliers de la Persuasion : Logos – Pathos – Ethos https://youtu.be/l6-QQircyEY
5 conseils pour que vos arguments en faveur de l'évaluation portent fruit
Découvrez les autres outils de la collection
Disponibles sur le site de la Docuthèque de l'Université du Québec : https://docutheque.uquebec.ca/
Pour citer ce document :
Communauté d’apprentissage et de pratique en évaluation de l’Université du Québec. (2026). 13 mises en situation pour dépasser les idées reçues sur l’évaluation en enseignement supérieur. [Ressource pédagogique interactive] (Repères en évaluation : Ressources de la Communauté d’apprentissage et de pratique en évaluation de l’Université du Québec. Université du Québec. Disponible à : https://docutheque.uquebec.ca/id/eprint/594
Document également disponible en version interactive : https://view.genially.com/69bc0da78666e3fa220f98f1