![]() |
Énoncé de
position conjoint de la Société canadienne de psychologie et de l'Association canadienne
des psychologues scolaires relativement à la couverture, par la presse canadienne, des
résultats des examens de compétences administrés à l'échelle de la province Marvin L. Simner, Ph.D. président, Groupe de travail sur
l'utilisation erronée de tests
|
||
Résumé | Contexte | Énoncé
de position | Recommandations | Bibliographie
On demande à tous les professeurs d'un bout à l'autre du Canada de faire passer à leurs élèves, chaque printemps, une batterie d'examens émanant des autorités provinciales. Environ six mois plus tard, les résultats sont diffusés auprès du grand public. La presse a pris l'habitude de publier les résultats, de classer les écoles en fonction des résultats qu'elles ont obtenus et d'inviter le public à comparer les écoles les unes par rapport aux autres à la lumière de leur classement. Les journalistes commentent aussi couramment les piètres résultats obtenus par certaines écoles et n'hésitent aucunement à attribuer aux écoles la plus grande part de responsabilité, sinon la seule, de ce rendement. Une telle pratique de la part de la presse nous amène à nous interroger sérieusement sur leur incapacité à discerner les nombreux facteurs autres que l'établissement scolaire proprement dit qui influent de façon certaine sur les examens de compétences. La stabilité de la situation familiale, l'engagement et les attentes parentales à l'égard de la réussite scolaire des enfants, la stimulation du milieu familial dans la petite enfance et aux phases ultérieures, la motivation des élèves, le taux d'absentéisme des étudiants, de même que leurs aptitudes en matière d'apprentissage ne constituent qu'une partie des facteurs dont il conviendrait de tenir compte. En raison du fait que la répartition des élèves dans les différentes écoles ne se fait pas de façon aléatoire et à cause de l'absence ou du peu de contrôle que les écoles peuvent exercer sur les facteurs énumérés ci-dessus, toute démarche visant à attribuer la responsabilité des résultats à l'école uniquement, sans tenir compte adéquatement de chacun de ces facteurs, est au mieux problématique et au pire, trompeuse. Par conséquent, nous croyons qu'en adoptant une position aussi peu étoffée sur une question aussi complexe (c'est-à-dire les causes réelles des résultats obtenus par les élèves aux examens qui leurs sont administrés), les médias privent le public d'une information juste et réaliste sur une question qui revêt la plus haute importance pour le fonctionnement des établissements scolaires et, par le fait même, pour l'éducation et le bien-être des enfants. Notre plus grande préoccupation réside toutefois dans la possibilité que les professeurs, les administrateurs et ultimement, les élèves eux-mêmes subissent des pressions injustifiées en vue d'améliorer les résultats aux examens de compétences (étant confrontés au risque de perdre leur crédibilité face à la collectivité), si l'on continue d'attribuer à l'école uniquement la responsabilité des résultats aux examens de compétences. De fait, il devient de plus en plus manifeste qu'un tel effet négatif se fait déjà sentir aux États-Unis à la suite de commentaires comparables de la presse américaine relativement aux piètres résultats de certaines écoles aux examens administrés sous la gouverne des États. Dans l'espoir d'empêcher que de telles situations ne se produisent au Canada, nous affirmons, à l'instar de l'Ontario Education Quality and Accountability Office, organisme responsable de la conception des examens ontariens et des modalités de correction, qu'il est inapproprié que la presse invite le grand public à comparer les écoles en se fondant uniquement sur les résultats des examens imposés. Nous recommandons en outre que dans tout article à venir qui abordera les résultats aux examens, la presse s'assure, dans un souci de fournir au public une information objective et complète, que le public soit pleinement renseigné sur les différents facteurs, autres que l'instruction donné par les établissements scolaires, qui ont fort probablement une incidence sur les différences observées d'une école à l'autre. Les examens de compétences administrés à l’échelle provinciale aux élèves des niveaux primaire et secondaire sont maintenant devenus la norme dans l’ensemble du Canada (Fédération canadienne des enseignants, 1999). La nature des examens et les années scolaires où ils sont administrés varient d’une province à l’autre. Mais toutes les provinces et tous les territoires font passer une forme quelconque d’examens à tous leurs étudiants chaque année ou chaque deux ans, ou encore prévoient le faire prochainement. Bien que nous soyons préoccupés par la pertinence des examens mandatés qui sont administrés à l’échelle de la province, à l’instar de nombreux auteurs (par exemple, Froese-Germain, 1999; Haladyna, Nolen et Hass, 1991; Herman et Golan, 1993; Herman, Abedi, et Golan, 1994; Jones et Whitford, 1997; Lomax, West, Harmon, Viator et Madaus, 1995; Madaus, 1985; Paris, Lawton, Turner et Roth, 1991; Rotberg, 1995 et Salganik, 1985), notre principal souci porte dans l’immédiat sur le tort que pourraient causer les affirmations erronées qui sont diffusées par la presse relativement aux résultats des examens. La diffusion des résultats des examens et le classement des écoles en fonction de ces résultats, où l’on invite la population à comparer les écoles les unes avec les autres à la lumière de ces résultats, est devenu pratique courante depuis quelques années. Le passage suivant est extrait d’un article de fond du Calgary Herald, signé par Peter Cowley, coauteur du 1999 Report Card on Alberta's High Schools (compilé par le Fraser Institute). Il s’agit d’un exemple éloquent des objectifs qui sous-tendent ces invitations à comparer :
Un message de même nature a été diffusé le 24 mars 1999 dans The Province, un quotidien de Vancouver, qui a publié un article de fond (réparti sur trois numéros) portant sur le classement des écoles de la Colombie-Britannique (une autre réalisation du Fraser Institute). Une version encore plus accentuée de ce message a été diffusée dans le cadre de l’éditorial principal du 27 novembre 1999 du London Free Press :
Ces affirmations laissent croire que les écoles sont largement responsables des résultats obtenus par les élèves aux examens de compétences. Qui plus est, les élèves qui les fréquentent seront condamnés à vivre dans un milieu peu propice à l’apprentissage, tant et aussi longtemps que les écoles où les élèves ont de piètres résultats ne seront pas forcées, par la compétition, à offrir une éducation de qualité. Ce qui nous semble problématique dans ces écrits est le fait que les auteurs font totalement abstraction des facteurs (autres que la qualité de l’enseignement) dont l’incidence sur les résultas des examens est bien connue. Voici quelques-un de ces facteurs : la stabilité de la situation familiale, l’engagement et les attentes parentales à l’égard de la réussite scolaire des enfants, la stimulation du milieu familial dans la petite enfance et aux phases ultérieures, la motivation des élèves, le taux d’absentéisme des étudiants, de même que leurs aptitudes en matière d’apprentissage (Christenson, Rounds et Gorney, 1992; Grolnick et Ryan, 1989; Jeynes, 1999; Keith, Keith, Quirk, Sperduto, Santillo et Killings, 1998; Lytton et Pyryt, 1998; McLean, 1997; Scarborough et Dobrick, 1994). En raison du fait que la répartition des élèves dans les différentes écoles ne se fait pas de façon aléatoire et à cause de l’absence ou du peu de contrôle que les écoles peuvent exercer sur les facteurs énumérés ci-dessus, toute démarche visant à attribuer la responsabilité du rendement à l’école uniquement, sans tenir compte adéquatement de chacun de ces facteurs, est au mieux problématique et au pire, trompeuse. Par conséquent, nous croyons qu’en adoptant une position aussi peu étoffée sur une question aussi complexe (c’est-à-dire les causes réelles des résultats obtenus par les élèves aux examens qui leurs sont administrés), les médias privent le public d’une information juste et réaliste sur une question qui revêt la plus haute importance pour le fonctionnement des établissements scolaires et, par le fait même, pour l’éducation et le bien-être des enfants. Les mêmes remarques s’appliquent aux affirmations contenues dans les articles où les fluctuations annuelles enregistrées par chacune des écoles dans les résultats aux examens font l’objet de commentaires. Par exemple, le Globe and Mail a braqué les projecteurs sur une école du district scolaire catholique de Toronto qui a déclaré une hausse de 48 % dans ses résultats aux examens de lecture. Le quotidien a attribué cette amélioration strictement à « l’effort concerté de tous les intervenants de l’école dont l’objectif était le rehaussement du rendement » (Galt, 1999). De façon comparable, le Readers Digest attribuait, dans un article intitulé When teachers sell kids short (Nikiforuk, 1997), les progrès réalisés par une école du district de North York en Ontario au « plan d’action qui comprenait davantage d’enseignement direct et séquentiel de la phonétique, de la grammaire et de l’orthographe ». Il va sans dire que le fait de mentionner des écoles précises qui ont enregistré des progrès remarquables par rapport à l’année précédente et d’expliquer ces progrès uniquement par les efforts consentis par les écoles elles-mêmes nous laisse à penser, par déduction, que les écoles dont les progrès ont été plus mitigés sont fautives de ne pas avoir consacré autant d’efforts. Le problème qui se pose dans de telles situations réside dans le fait qu’il est difficile, voire impossible, d’interpréter tout progrès ou recul enregistré dans le temps par chacune des écoles, à moins d’avoir en main tous les renseignements sur la situation de l’école. L’exemple suivant, tiré du London Free Press, illustre bien la nature de ce problème. Dans l’éditorial principal qui a été cité précédemment, le London Free Press indique que 12 écoles du système scolaire catholique de London et du district de London ont enregistré « un bon prodigieux » entre 1998 et 1999, grâce à l’action bénéfique de « professeurs spécialisés itinérants qui formaient l’équipe d’intervention tactique ». Si l’éditorialiste avait tenu compte des données réelles, ainsi que des renseignements de nature démographique que pouvaient lui fournir la commission scolaire catholique relativement à ces 12 écoles, il en aurait tracé un tableau passablement différent. Prenons la lecture par exemple. Les données auraient révélé à l’éditorialiste que seulement sept écoles sur 12 avaient enregistré des progrès d’une ampleur assez considérable pour pouvoir être imputés hors de tout doute à d’autres facteurs que la chance. Une analyse minutieuse des données démographiques lui aurait aussi appris que les sept écoles fructueuses présentaient des différences importantes par rapport aux cinq autres. Il aurait observé une diminution, dans les écoles fructueuses, du nombre moyen d’élèves par classe entre 1998 et 1999, alors que les cinq autres écoles enregistraient une hausse à ce chapitre. Par conséquent, le ratio élèves-enseignant, qui se traduit par une plus grande disponibilité des enseignants pour leurs étudiants, pouvait être à l’origine des progrès observés dans les écoles fructueuses. De plus, le nombre d’élèves de sexe masculin avait diminué dans les sept écoles fructueuses, alors qu’il avait augmenté dans les cinq autres écoles. On avait également enregistré, dans cinq des sept écoles fructueuses, une diminution moyenne de 12 % du nombre d’élèves pour qui la langue anglaise est une langue seconde (les allophones). Cette diminution a été inférieure à 2 % dans les cinq autres écoles. Nous mentionnons ces deux derniers aspects car les garçons et les allophones obtiennent généralement des résultats inférieurs à ceux des filles et des anglophones dans les examens de lecture. Essentiellement, cette combinaison de classes de moindre taille, ainsi que d’un nombre inférieur de garçons et d’allophones dans les sept écoles fructueuses peut suffire à expliquer les différences entre les deux groupes d’écoles, sans égard à l’existence du « groupe d’intervention tactique ». Pour illustrer davantage le fait que le London Free Press aurait dû recueillir de plus amples renseignements avant de tirer quelque conclusion que ce soit, il conviendrait de se pencher sur les modalités de correction des examens en 1998 et en 1999 (normalisées dans l’ensemble de la province). Selon une note de service (datée du 15 novembre 1999) diffusée par l’Education Quality and Accountability Office (EQAO), organisme chargé de l’élaboration et des modalités de correction des examens ontariens, les modalités utilisées en 1998 différaient de celles qui ont été prescrites en 1999. En 1998, les correcteurs d’examens se sont servis d’une échelle à quatre niveaux (1, 2, 3, 4) pour déterminer le rendement de chaque élève, alors que l’examen de 1999 faisait appel à une échelle à sept niveaux (1, 1+, 2, 2+, 3, 3+, 4). On a apporté cette modification dans le but de permettre davantage de souplesse dans l’attribution du résultat dans les cas où subsiste une incertitude relativement à la note que mérite l’étudiant (p. ex., la note 2 ou la note 3?). Cependant, la note finale accordée à chaque élève par l’EQAO en 1999 a été établie en ramenant l’échelle comprenant sept niveaux à une échelle qui en comportait quatre seulement. La note accordée au travail de l’étudiant a été attribuée en combinant les points dans chacune des catégories « plus » avec ceux du niveau supérieur immédiat. Autrement dit, le pointage final de l’étudiant en 1999 a été arrondi au premier niveau supérieur dès qu’un « plus » apparaissait dans son dossier. Puisque ce processus d’arrondissement n’existait pas en 1998 et puisque certaines écoles ont pu en profiter plus que d’autres, il est difficile de déterminer si les progrès observés dans certaines écoles du système scolaire catholique de London et du district de London entre 1998 et 1999 auraient dû être attribués aux seuls efforts des écoles, comme le prétendait l’éditorial, ou auraient-ils dû plutôt être imputés à un facteur extérieur qui découle des modifications apportées au processus de correction. Bref, comme c’est le cas lorsqu’on tente de déterminer la cause des différences observées d’une école à l’autre au cours de la même année, toute tentative visant à établir la cause des différences qui se manifestent dans une même école par rapport à l’année précédente pose autant de problèmes si l’on n’envisage pas convenablement tous les paramètres qui entrent en jeu. Voici ce que le RAND Institute of Education and Training a écrit sur la question :
Au-delà du problème réel que pose l’interprétation des résultats aux examens, notre plus grande préoccupation réside dans le tort qui pourrait être causé par les affirmations fausses qui en découlent. À titre d’associations vouées à l’amélioration de la santé mentale chez les enfants et chez les adultes, nous sommes particulièrement troublés par la possibilité, lorsque la responsabilité des résultats des élèves aux examens est attribuée spécifiquement aux écoles uniquement, que l’on mette des pressions indues sur les professeurs, les administrateurs et ultimement les élèves eux-mêmes afin qu’ils améliorent leurs résultats aux examens pour ne pas risquer de perdre leur statut au sein de la collectivité. La situation que l’on découvre actuellement aux États-Unis confirme clairement cette éventualité. Prenons par exemple le cas du Michigan où un classement semblable à celui que l’on fait au Canada est diffusé par la presse depuis de nombreuses années.
Examinons également les rapports de presse qui portent sur la situation récente dans les États de New York, du Texas, du Massachusetts, du Maryland, de l’Ohio et du Connecticut. Dans tous les territoires de compétence, des membres du personnel scolaire ont été poursuivis en justice, ont été suspendus ou sont l’objet d’une enquête pour comportement inconvenable. Dans tous ces territoires, on a déterminé que l’accroissement de la pression sur les écoles à cause du classement est le facteur que l’on retrouve constamment à la base de ces problèmes.
D’un point de vue plus personnel, la citation suivante d’un enseignant de 5e année en Californie, extraite d’un article paru récemment dans le New York Times, illustre très bien le dilemme auquel sont confrontés de nombreux pédagogues américains relativement au classement des écoles :
Les écrits de Lomax, West, Harmon, Viator et Madaus (1995), de Paris, Lawton, Turner et Roth (1991), ainsi que de Smith (1991) fournissent d’autres commentaires et des preuves supplémentaires démontrant le tort que causent ces classements aux États-Unis. En résumant la plupart de ces preuves, voici ce que Rotberg (1995) a affirmé sur le principe visant à rendre les enseignants imputables à l’aide des résultats d’examens dans le but de favoriser le changement dans le système d’éducation :
À la lumière de la situation qui prévaut de plus en plus au États-Unis, et dans l’espoir d’éviter de la reproduire au Canada, nous affirmons notre adhésion pleine et entière aux énoncés suivants qui ont été formulés par l’Ontario Education Quality and Accountability Office (le premier énoncé est extrait d’un guide publié à l’intention des parents, alors que le deuxième énoncé est tiré d’un guide destiné aux pédagogues) :
Bref, le principal objectif des examens administrés à l’échelle de la province sont, selon l’EQAO, de permettre aux écoles et aux commissions scolaire de jauger, d’une année à l’autre, leurs propres progrès par rapport aux normes établies par le ministère de l’Éducation. Les examens ne sont pas administrés dans le but de fournir un instrument permettant de mesurer le rendement des écoles les unes par rapport aux autres. En appuyant cette position de l’EQAO, nous considérons donc qu’il est inconvenable que la presse invite le public à mettre en contraste le rendement d’une école avec celui des autres écoles en se fondant uniquement sur les résultats que ses élèves ont obtenus aux examens. Nous pensons aussi que la presse devient de facto un utilisateur de résultats d’examens pédagogiques lorsqu’elle rapporte et interprète ces résultats. Nous croyons donc que la presse devrait être soumise aux mêmes ensembles de règles déontologiques qui s’appliquent aux autres utilisateurs de ce matériel. Ces règles sont présentées dans des documents tels que Principes relatifs aux pratiques d’évaluation équitable au Canada, Standards for Educational and Psychological Testing (AERA, APA, NCME, 1985, 1999) et Guidelines for Educational and Psychological Testing (SCP, 1987). Au moins deux de ces règles s’appliquent directement à la situation décrite dans le présent document :
Dans l’esprit de ces règles, nous recommandons que dans tout article qui fera état de résultats d’examens ou qui les interprétera, la presse s’assure que le public est pleinement informé des différents facteurs autres que l’établissement scolaire proprement dit qui sont probablement à la base des différences qui peuvent exister d’une école à l’autre. Comme il a été mentionné précédemment, ces facteurs sont (sans toutefois s’y limiter) : la stabilité de la situation familiale, l’engagement et les attentes parentales à l’égard de la réussite scolaire de leurs enfants, la stimulation du milieu familial dans la petite enfance et aux phases ultérieures, la motivation des élèves, le taux d’absentéisme des étudiants, de même que leurs aptitudes en matière d’apprentissage. À titre de moyen supplémentaire pour éviter toute fausse compréhension de la part du public, nous recommandons aussi qu’une remarque comparable au paragraphe suivant soit inscrite de façon évidente à proximité de toute répartition des résultats par école :
Dans le cadre de ces recommandations, nous voulons exprimer clairement que nous ne visons aucunement à faire obstruction à la liberté de presse. Et que nous ne cherchons en aucune façon à entraver tout débat public sur les meilleures méthodes à adopter en matière d’éducation des enfants. Nous croyons toutefois que les intérêts du public sont mal servis lorsque la population est exposée à des renseignements trompeurs et à des données spéculatives présentées sans preuves. Remerciements Nous aimerions exprimer toute notre gratitude aux membres suivants du Groupe de travail, qui ont fourni de nombreux commentaires fort utiles sur une version antérieure du présent document : Sampo Paunonen, Nicholas Skinner et P. A. Vernon. Nos remerciements s’adressent également à Brian Reiser, Gary Rollman et Phyllis Simner, qui nous ont fait profiter de nombreuses références importantes, de même que de leurs commentaires des plus pertinents. AERA, APA, NCME. (1985). Standards for educational and psychological testing. Washington, DC : American Psychological Association. AERA, APA, NCME. (1999). Standards for educational and psychological testing. Washington, DC: American Psychological Association. Bushweller, K. (1997). Teaching to the test. The American School Board Journal, septembre, vol. 20. Fédération canadienne des enseignantes et enseignants. (1999). Programmes d’évaluation à l’échelle provinciale. Disponible en direct à l’adresse suivante : http://www.ctf-fce.ca/F/NOTRE/mesure/fmain-mesure.htm Christenson, S. L., Rounds, T. et Gorney, D. (1992). Family factors and student achievement: An avenue to increase student's success. School Psychology Quarterly, 7, pp.178 à 206. Cowley, P. (20 juin 1999). Comparing schools made possible. Calgary Herald, p. A10. CPA (1987). Guidelines for educational and psychological testing. Ottawa (Ontario): Société canadienne de psychologie. Daniszewski, H. (4 mai 1999). Upping the score. London Free Press, p. A10. EQAO. (1998a). Parent handbook 1997-1998. Toronto (Ontario) : Imprimeur de la reine pour l’Ontario. EQAO. (1998b). Educators handbook. Toronto (Ontario) : Imprimeur de la reine pour l’Ontario. Froese-Germain, B. (1999). Les tests standardisés : atteinte à l’équité en éducation. Ottawa (Ontario) : Fédération canadienne des enseignantes et enseignants. Galt, V. (26 novembre 1999). Scarborough school's grade 3 posts sharp rise in test scores. The Globe and Mail. Goodnough, A. (9 décembre 1999). New York city teachers nabbed in school-test cheating scandal. National Post, p. B1. Grolnick, W. S. et Ryan, R. M. (1989). Parent styles associated with children's self-regulation and competence in school. Journal of Educational Psychology, 81, pp. 143 à 154. Haladyna, T. M., Nolen, S. B. et Haas, N. S. (1991). Raising standardized achievement test scores and the origins of test score pollution. Educational Researcher, 20, pp. 2 à 7. Herman, J. L., Abedi, J. et Golan, S. (1994). Assessing the effects of standardized testing on schools. Educational and Psychological Measurement, 54, pp. 471 à 482. Herman, J. L. et Golan, S. (1993). The effects of standardized testing on teaching and schools. Educational Measurement: Issues and Practice, hiver 1993, pp. 20 à 42. Hixson, B. K. (25 janvier 2000). How tests change a teacher. The New York Times. Jeynes, W. H. (1999). The effects of children of divorce living with neither parent on the academic achievement of those children. Journal of Divorce & Remarriage, 30, pp. 103 à 120. Jones, K. et Whitford, B. L. (1997). Kentucky's conflicting reform principles: High-stakes school accountability and student performance assessment. Phi Delta Kappan, 70, pp. 276 à 281. Keith, T. Z., Keith, P. B., Quirk, K. J., Sperduto, J., Santillo, S. et Killings, S. (1998). Longitudinal effects of parent involvement on high school grades: Similarities and differences across gender and ethnic groups. Journal of School Psychology, 36, pp. 335 à 363. Lomax, R. G., West, M. M., Harmon, M. C., Viator, K. A. et Madaus, G. F. (1995). The impact of mandated standardized testing on minority students. Journal of Negro Education, 64, pp. 171 à 185. Lytton, H. et Pyryt, M. (1998). Predictors of achievement in basic skills: A Canadian effective schools study. Revue canadienne de l'éducation, 23, pp. 281 à 301. Madaus, G. F. (1985). Test scores as administrative mechanisms in educational policy. Phi Delta Kappan, 66, 611-617. McLean, R. (1997). Selected attitudinal factors related to students' success in high school. The Alberta Journal of Educational Research, 43, pp.165 à 168. Mathews, J. et Argetsinger, A. (2 juin 2000). Teachers say pressure to do well on tests is enormous. Washington Post, p. B1., A18. Nikiforuk, A. (Avril 1997). When teachers sell kids short. Reader's Digest, pp. 119 à 120. Paris, S. G., Lawton, T. A., Turner, J. C. et Roth, J. L. (1991). A developmental perspective on standardized achievement testing. Educational Researcher, 20, pp. 12 à 20, 40. Poole, P. (31 mai 2000). Brave new schools: Clinton’s model school accused of cheating. WorldNetDaily (en direct). Adresse internet : www.worldnetdaily.com/bluesky_exnews/ 2000531_xex_ clintons_mod.shtml. Principes relatifs à une évaluation juste des étudiants au Canada / Principles for fair student assessment practices for education in Canada. (1993). Edmonton (Alberta) : Joint Advisory Committee. (Adresse postale : Joint Advisory Committee, Centre for Research in Applied Measurement and Evaluation, 3-104 Education Building North, University of Alberta, Edmonton (Alberta) T6G 2G5). Rotberg, I. C. (1995). Myths about test score comparisons. Science, 270, pp. 1446 à 1448. Salganik, L. H. (1985). Why testing reforms are so popular and how they are changing education. Phi Delta Kappan, 66, 607-610. Scarborough, H. S. et Dobrick, W. (1994). On the efficacy of reading to preschoolers. Developmental Review, 14, pp. 245 à 302. Smith, M. L. (1991). Put to the test: The effects of external testing on teachers. Educational Researcher, 20, pp. 8 à 11. Whitaker, B. (8 avril 1999). Prosecutor says indictment of Austin schools will help deter test tampering. The New York Times. Wilgoren, J. (25 février 2000). Cheating on state wide tests is reported in Massachusetts. The New York Times.
|
Approuvé par le Conseil d’administration de la Société canadienne de psychologie en avril 2000, ainsi que par le Conseil exécutif de l’Association canadienne des psychologues scolaires en juillet 2000. Canadian Psychological Association Tous droits réservés © 2000 Toute personne voulant reproduire le présent document est autorisée à le faire. Société canadienne de psychologie Titre : Énoncé de position conjoint de la Société canadienne de psychologie et de l’Association canadienne des psychologues scolaires relativement à la couverture, par la presse canadienne, des résultats des examens de compétences administrés à l’échelle de la province. ISBN # 1896638630
|