Vous entendez certainement parler de certaines nouveautés dans la manière d’évaluer les externes et les résidents que vous supervisez dans votre pratique clinique. Compétences CanMEDS, examens cliniques objectifs et structurés (ECOS), observations directes et grilles de rétroaction font progressivement partie de votre engagement dans la formation de la relève médicale.

Déjà implantées dans plusieurs programmes de médecine familiale, les activités professionnelles confiables (APC, ou Entrustable Professional Activities) seront graduellement utilisées dans les programmes d’externat et de résidence (1-3). Il s’agit de tâches cliniques importantes pouvant être confiées par un superviseur à un apprenant lorsque celui-ci montre un niveau suffisant de compétence et visant à documenter son niveau d’autonomie (4). Par exemple, un résident en médecine familiale doit montrer qu’il est autonome dans la réalisation d’un accouchement normal et la prise en charge du nouveau-né. Son superviseur doit documenter son autonomie en utilisant une échelle de confiance et lui donner de la rétroaction, notamment confirmer certains éléments bien exécutés et relever ceux à améliorer.

pedagogie-lafleurlacasse-f1

Y a-t-il des preuves que des évaluations bien conçues influencent positivement l’apprentissage ?

La plupart des étudiants adaptent leurs stratégies d’étude à notre manière de les évaluer, non seulement pour le pire, mais aussi pour le meilleur. Dans le cadre d’une étude randomisée, on a observé des externes de l’Université Laval lorsqu’ils étudiaient en équipe pour deux types d’ECOS. Devant une consigne d’examen passée de « faites l’examen de l’épaule douloureuse » à « déterminez et justifiez laquelle des trois pathologies suivantes affecte l’épaule de ce patient », les étudiants ont basé leurs stratégies d’étude sur les hypothèses cliniques plutôt que sur des listes apprises par cœur et ont triplé leur utilisation du raisonnement clinique (5,6).

Y a-t-il des preuves que nos démarches pour améliorer la formation ont des répercussions sur les soins donnés aux patients ?

La qualité de l’enseignement et de l’évaluation dans votre programme de médecine laisse une empreinte durable sur la manière dont les diplômés pratiqueront leur profession. Une étude portant sur 4124 obstétriciens américains a montré que, même lorsque corrigé pour les résultats aux examens nationaux, le lieu de formation en résidence avait une influence prolongée sur qualité des soins donnés par les diplômés, avec une différence significative de 3,3 % du risque absolu de complications maternelles entre les diplômés des « meilleurs » et des « moins bons » programmes(7). De telles études demeurent rares et requièrent d’autres analyses. Quelles caractéristiques de ces program-mes ont permis de former des médecins ayant de plus bas taux de complications ? L’utilisation d’une approche par compétences, de l’observation directe et de la simulation sont des hypothèses plausibles que des études futures tenteront de confirmer.

pedagogie-lafleurlacasse-f4

En pédagogie, comme en médecine, il ne faut pas exiger que nos interventions aient un effet positif sur tous les étudiants. Les efforts quotidiens des superviseurs pour créer un climat propice à l’apprentissage et une exposition clinique variée auront une répercussion significative sur plusieurs étudiants, notamment ceux éprouvant des difficultés et les plus performants. Les nouveaux outils d’évaluation permettent entre autres d’adapter nos interventions à ces deux groupes.

Comment puis-je savoir où en est l’étudiant dans sa formation afin de l’évaluer avec justesse ?

Un des avantages des nouvelles méthodes d’évaluation est justement de mieux s’adapter au niveau de l’étudiant et de mieux en informer le superviseur. Par exemple, certaines fiches d’évaluation électroniques tiennent compte de jalons dans le développement de compétences de l’étudiant (3). En d’autres mots, elles guident le superviseur par rapport au niveau attendu pour cet étudiant. Lorsqu’un superviseur évalue une APC, il peut facilement aussi se référer aux jalons qui ont mené à sa conception, c’est-à-dire à ce qui est attendu d’un étudiant pour qu’il soit considéré comme autonome dans cette tâche.

L’évaluation n’est-elle pas plus objective si elle est effectuée par la Faculté ou les organismes d’agrément plutôt que par un clinicien ou une clinicienne ?

Les évaluations se rapprochent de plus en plus des milieux cliniques afin d’évaluer le rendement réel de l’étudiant, non pas seulement ce qu’il sait ou ce qu’il démontre dans un examen. Moins structurées et standardisées, ces situations authentiques ont l’avantage majeur d’être observées fréquemment par divers superviseurs. Ainsi, pour équivaloir aux APC observées durant la résidence, il faudrait un examen ECOS de plusieurs jours, mettant à contribution un nombre colossal d’évaluateurs. L’évaluation en milieu de travail permet de tirer profit de la rétroaction du superviseur et de son observation d’une tâche précise et réelle. La décision pour ce qui est de la compétence de l’étudiant proviendra de l’addition de toutes les observations obtenues de plusieurs superviseurs. Le superviseur maintient donc son rôle de « coach » avec ses étudiants, qui comprennent qu’il ne corrige qu’une question, pas tout l’examen.

En évaluant les compétences telles que le professionnalisme et la communication, s’éloigne-t-on de l’expertise médicale ?

L’expertise médicale demeurera au centre de la majorité des évaluations. Le fait de communiquer clairement avec le patient, de le diriger vers d’autres professionnels et de tenir compte d’éléments de confidentialité font déjà partie des attentes des superviseurs et celles de la population envers les étudiants. Elles sont intrinsèquement liées à votre travail quotidien. L’objectif est de les rendre expli-cites pour les étudiants (ex. : comment comptes-tu t’assurer que l’information est claire ?). De nouvelles grilles d’évaluation et d’APC rappellent aux superviseurs de cibler ces aspects dans leur rétroaction.

Avec toutes ces évaluations, aura-t-on encore le temps d’enseigner ?

Lorsqu’on donne de la rétroaction à un étudiant dans une évaluation, c’est une des formes d’enseignement ayant le plus grand impact (8,9). De brèves formations pédagogiques sur l’observation directe, les APC ou l’évaluation de sources multiples permettront de bien maîtriser et d’intégrer dans la pratique ces modalités d’évaluation. On pourra ainsi les utiliser, en plus d’autres stratégies d’enseignement, comme des outils efficaces pour la formation des étudiants.

Précision : Toute opinion ou analyse de la section Perspectives n’est pas une position officielle du magazine Santé inc., de l’Association médicale canadienne ou de ses filiales et partenaires.

Pour joindre le Dr Alexandre Lafleur, M.D., M. Sc. (éd.), FRCPC ou la  Dre Miriam Lacasse, M.D., M. Sc., CCMF

 

RÉFÉRENCES

  1. L’Association des facultés de médecine du Canada. (2016). Activités professionnelles confiables pour la transition des études de premier cycle vers la résidence. Récupéré le 6 mars 2018 du site de L’Association : https://afmc.ca/sites/default/files/documents/AFMC_Entrustable_Professional_Activities_FR.pdf
  2. Collège royal des médecins et chirurgiens du Canada. (2017). Jalons et APC. Récupéré le 6 mars 2018 du site du Collège : http://www.royalcollege.ca/rcsite/cbd/implementation/cbd-milestones-epas-f
  3. Lacasse, M. (2016). Competency assessment tool in family medicine [Affiche Virtuelle]. Niagara Falls, Canada: International Conference on Residency Education. Récupéré le 6 mars 2018 dans YouTube : youtube.com/watch?v=IB3DzZN_9wM
  4. Ten Cate, O. (2014). AM last page: what entrustable professional activities add to a competency-based curriculum. Academic Medicine, 89 (4), 691.
  5. Lafleur, A., Côté, L., Leppink, J. (2015). Influences of OSCE design on students’ diagnostic reasoning. Medical Education, 49 (2), 203-14.
  6. Lafleur, A., Laflamme, J., Leppink, J., Côté, L. (2017). Task Demands in OSCEs Influence Learning Strategies. Teaching and Learning in Medicine, 29 (3), 286–295.
  7. Asch, D. A., Nicholson, S., Srinivas, S., Herrin, J., Epstein, A. J. (2009). Evaluating obstetrical residency programs using patient outcomes. Journal of the American Medical Association, 302 (12),1277-83.
  8. Larsen, D. P., Butler, A. C., Roediger, H. L. III. (2008). Test-enhanced learning in medical education. Medical Education, 42 (10), 959-66.
  9. Holmboe, E. S., Sherbino, J., Long, D. M., Swing, S. R., Frank, J. R. (2010). The role of assessment in competency-based medical education. Medical Teacher, 32 (8), 676-82.

 

Publié dans

Dr Alexandre Lafleur, M.D., M. Sc. (éd.), FRCPC et Dre Miriam Lacasse, M.D., M. Sc., CCMF

Les auteurs sont Titulaires de la Chaire de leadership en enseignement en pédagogie des sciences de la santé AMQ-AMC-MD à la Faculté de médecine de l’Université Laval (cle-pss@fmed.ulaval.ca)