Résumés
Résumé
L’évaluation des compétences scientifiques chez les élèves du secondaire (12-16 ans) présente des défis importants, en particulier en ce qui concerne l’instrumentation. Cet article présente des propositions à caractère méthodologique permettant de développer et d’administrer des situations d’évaluation (SE) de la compétence d’investigation scientifique dans un contexte à enjeux critiques comme c’est le cas, par exemple, en évaluation sommative ou certificative. Ces propositions s’appuient sur les postulats de l’approche par compétence, l’approche préconisée dans plusieurs systèmes éducatifs nord-américains et européens.
Abstract
The assessment of secondary students’ (12-16 years old) scientific competencies involves significant challenges, in particular instrumentation competencies. This article presents a methodological framework to develop and administer tools that can assess students’ scientific investigation competencies in a high-stakes context, such as summative or certificative evaluations. The framework draws on the competency-based approach, which is the recommended approach in many North American and European educational systems.
Veuillez télécharger l’article en PDF pour le lire.
Télécharger
Parties annexes
Note biographique
ERIC DIONNE est professeur à la Faculté d’éducation de l’Université d’Ottawa. Les intérêts de recherche du professeur Dionne touchent à la modélisation des scores ainsi qu’au développement et à la validation d’outils de cueillette de données.
Bibliographie
- Airasian, P. W., Engemann, J. et Gallagher, T. L. (2007). Classroom assessment: Concepts and applications (Édition canadienne). Toronto, ON: McGraw Hill.
- Astolfi, J.-P., Darot, E., Ginsburger-Vogel, Y. et Toussaint, J. (1997). Mots-clés de la didactique des sciences : Repères, définitions, bibliographies. Bruxelles, BE : De Boeck Université.
- Baker, E. L. (1997). Model-based performance assessment. Theory into Practice, 36(4), 247-54.
- Bormuth, J. R. (1970). On a theory of achievement test items. Chicago, Il: University of Chicago Press.
- Conderman, G. et Koroghlanian, C. (2002). Writing test questions like a pro. Intervention in School and Clinic, 38(2), 83-87.
- Delors, J. (1999). Rapport à l’UNESCO de la Commission internationale sur l’éducation pour le vingt-et-unième siècle, l’éducation : un trésor est caché dedans. Paris, FR: Odile Jacob.
- Dionne. E. (2000). État de l’application du constructivisme en sciences physiques dans une commission scolaire québécoise (Thèse de maîtrise inédit). Université de Montréal, Montréal, Québec, Canada.
- Dionne, E. (2005). Enjeux en évaluation des apprentissages dans le cadre de programmes d’études formulés par compétences : l’exemple de science et technologie. Mesure et évaluation en éducation, 28(2), 49-66.
- Dionne, E. (2008). Expérimentation d’un modèle d’évaluation permettant de juger du développement d’une compétence d’investigation scientifique en laboratoire (Thèse de doctorat inédit). Université de Montréal, Montréal, Québec, Canada.
- Dionne, E., et Laurier, M. D. (2010). Expérimentation d’un modèle d’évaluation certificative dans un contexte d’enseignement scientifique. Revue canadienne de l’éducation, 33(1), 83-107.
- Durand, M. J. et Chouinard, R. (2006). L’évaluation des apprentissages : de la planification de la démarche à la communication des résultats. Montréal, QC: Hurtubise HMH.
- Duschl, R. A. (2003). Assessment of inquiry. Dans J. M. Atkin et J. E. Coffey (dir.), Everyday assessment in the science classroom (pp. 41–59). Arlington, VA : National Science Teachers Association Press.
- Gott, R. et Welford, G. (1987). The assessment of observation in science. School science review, 69(247), 217-227.
- Haladyna, T. M., Downing, S. M. et Rodriguez, M. C. (2002). A review of multiple-choice item-writing guidelines for classroom assessment. Applied Measurement in Education, 15(3), 309-334.
- Haladyna, T. M. et Rodriguez, M. C. (2013). Developing and validating multiple-choice test items. New-York, NY: Routledge.
- Haladyna, T. M. et Shindoll, R. R. (1989). Shells: A method for writing effective multiple-choice test items. Evaluation in the Health Professions, 12, 97-104.
- Hogan, T. P. et Murphy, G. (2007). Recommendations for preparing and scoring constructed-response items: What the experts say. Applied Measurement in Education, 20(4), 427-441.
- Laurier, M. D., Tousignant, R. et Morissette, D. (2005). Les principes de la mesure et de l’évaluation des apprentissages (3e éd.). Montréal, QC : Gaëtan Morin.
- Lumpe, A. T., et Oliver, J. S. (1991). Dimensions of hands-on science. The American Biology Teacher, 53(6), 345-348.
- McCowan, R. J. (1999). Developing multiple choice tests: Tips & techniques. Consulté à partir : http://www.vcu.edu/cte/workshops/workshop_list/references/mccowan.pdf
- McMillan, J. H. (2001). Classroom assessment : Principles and practice for effective instruction (2e éd.). Needham Heights, MA: Allyn and Bacon.
- Ministère de l’Éducation du Québec. (2003). Programme de formation de l’école québécoise. Enseignement secondaire, premier cycle. Québec, QC : Gouvernement du Québec.
- National Research Council (1996). The National Science Education Standards. Consulté à partir : http://www.nap.edu/openbook.php?record_id=4962&page=19
- Perrenoud. P. (1997). Construire des compétences dès l’école (3e éd.), Paris, Éditions sociales françaises.
- Rey, B., Carette, V., Defrance, A. et Kahn, S. (2003). Les compétences à l’école, apprentissage et évaluation. Bruxelles, BE: DeBoeck.
- Roegiers, X. (2000). Une pédagogie de l’intégration : compétences et intégration des acquis dans l’enseignement. Bruxelles, BE: DeBoeck Université.
- Scallon, G. (2004). L’évaluation des apprentissages dans une approche par compétences. Montréal, QC : ERPI.
- Solano-Flores, G., Jovanovic, J. et Shavelson, R. J. (1994, avril). Development of an item shell for the generation of performance assessments in physics. Présentation d’un travail (de recherche) à le Annual Meeting of the American Educational Research Association, New Orleans, LA.
- Solano-Flores, G. et Shavelson, R. J. (1997). Development of performance assessments in science: Conceptual, practical, and logistical issues. Educational Measurement: Issues and Practice, 16(3), 16-25.
- Solano-Flores, G., Shavelson, R. J. et Bachman, M. (1999). On the development and evaluation of a shell for generating science performance assessments. International Journal of Science Education, 21(3), 293-315.
- Solano-Flores, G., Shavelson, R. J., & Schneider, S. A. (2001). Expanding the notion of assessment shell: From task development tool to instrument for guiding the process of assessment development. REDIE: Electronic Journal of Educational Research, 3(1), 1 - 19. Consulté à partir: http://redie.ens.uabc.mx.
- Tardif, J. (2003). Développer un programme de compétences : de l’intention à la mise en oeuvre. Pédagogie collégiale, 16(3), 36-45.
- Tardif, J. (2006). L’évaluation des compétences : Documenter le parcours de développement. Montréal, QC : Chenelière.
Parties annexes
Biographical note
ERIC DIONNE is a professor in the Faculty of Education at Ottawa University. His research interests are educational modelling and the development and validation of data collection tools.