Énoncé de
position conjoint de la Société canadienne de psychologie et de l'Association canadienne
des psychologues scolaires relativement à la couverture, par la presse canadienne, des
résultats des examens de compétences administrés à l'échelle de la province Marvin L. Simner, Ph.D. président, Groupe de travail sur
l'utilisation erronée de tests
|
|||
Résumé | Contexte | Énoncé
de position | Recommandations | Bibliographie
On demande à tous les professeurs d'un bout à l'autre du Canada de faire passer à leurs élèves, chaque printemps, une batterie d'examens émanant des autorités provinciales. Environ six mois plus tard, les résultats sont diffusés auprès du grand public. La presse a pris l'habitude de publier les résultats, de classer les écoles en fonction des résultats qu'elles ont obtenus et d'inviter le public à comparer les écoles les unes par rapport aux autres à la lumière de leur classement. Les journalistes commentent aussi couramment les piètres résultats obtenus par certaines écoles et n'hésitent aucunement à attribuer aux écoles la plus grande part de responsabilité, sinon la seule, de ce rendement. Une telle pratique de la part de la presse nous amène à nous interroger sérieusement sur leur incapacité à discerner les nombreux facteurs autres que l'établissement scolaire proprement dit qui influent de façon certaine sur les examens de compétences. La stabilité de la situation familiale, l'engagement et les attentes parentales à l'égard de la réussite scolaire des enfants, la stimulation du milieu familial dans la petite enfance et aux phases ultérieures, la motivation des élèves, le taux d'absentéisme des étudiants, de même que leurs aptitudes en matière d'apprentissage ne constituent qu'une partie des facteurs dont il conviendrait de tenir compte. En raison du fait que la répartition des élèves dans les différentes écoles ne se fait pas de façon aléatoire et à cause de l'absence ou du peu de contrôle que les écoles peuvent exercer sur les facteurs énumérés ci-dessus, toute démarche visant à attribuer la responsabilité des résultats à l'école uniquement, sans tenir compte adéquatement de chacun de ces facteurs, est au mieux problématique et au pire, trompeuse. Par conséquent, nous croyons qu'en adoptant une position aussi peu étoffée sur une question aussi complexe (c'est-à-dire les causes réelles des résultats obtenus par les élèves aux examens qui leurs sont administrés), les médias privent le public d'une information juste et réaliste sur une question qui revêt la plus haute importance pour le fonctionnement des établissements scolaires et, par le fait même, pour l'éducation et le bien-être des enfants. Notre plus grande préoccupation réside toutefois dans la possibilité que les professeurs, les administrateurs et ultimement, les élèves eux-mêmes subissent des pressions injustifiées en vue d'améliorer les résultats aux examens de compétences (étant confrontés au risque de perdre leur crédibilité face à la collectivité), si l'on continue d'attribuer à l'école uniquement la responsabilité des résultats aux examens de compétences. De fait, il devient de plus en plus manifeste qu'un tel effet négatif se fait déjà sentir aux États-Unis à la suite de commentaires comparables de la presse américaine relativement aux piètres résultats de certaines écoles aux examens administrés sous la gouverne des États. Dans l'espoir d'empêcher que de telles situations ne se produisent au Canada, nous affirmons, à l'instar de l'Ontario Education Quality and Accountability Office, organisme responsable de la conception des examens ontariens et des modalités de correction, qu'il est inapproprié que la presse invite le grand public à comparer les écoles en se fondant uniquement sur les résultats des examens imposés. Nous recommandons en outre que dans tout article à venir qui abordera les résultats aux examens, la presse s'assure, dans un souci de fournir au public une information objective et complète, que le public soit pleinement renseigné sur les différents facteurs, autres que l'instruction donné par les établissements scolaires, qui ont fort probablement une incidence sur les différences observées d'une école à l'autre. Les examens de compétences administrés à léchelle provinciale aux élèves des niveaux primaire et secondaire sont maintenant devenus la norme dans lensemble du Canada (Fédération canadienne des enseignants, 1999). La nature des examens et les années scolaires où ils sont administrés varient dune province à lautre. Mais toutes les provinces et tous les territoires font passer une forme quelconque dexamens à tous leurs étudiants chaque année ou chaque deux ans, ou encore prévoient le faire prochainement. Bien que nous soyons préoccupés par la pertinence des examens mandatés qui sont administrés à léchelle de la province, à linstar de nombreux auteurs (par exemple, Froese-Germain, 1999; Haladyna, Nolen et Hass, 1991; Herman et Golan, 1993; Herman, Abedi, et Golan, 1994; Jones et Whitford, 1997; Lomax, West, Harmon, Viator et Madaus, 1995; Madaus, 1985; Paris, Lawton, Turner et Roth, 1991; Rotberg, 1995 et Salganik, 1985), notre principal souci porte dans limmédiat sur le tort que pourraient causer les affirmations erronées qui sont diffusées par la presse relativement aux résultats des examens. La diffusion des résultats des examens et le classement des écoles en fonction de ces résultats, où lon invite la population à comparer les écoles les unes avec les autres à la lumière de ces résultats, est devenu pratique courante depuis quelques années. Le passage suivant est extrait dun article de fond du Calgary Herald, signé par Peter Cowley, coauteur du 1999 Report Card on Alberta's High Schools (compilé par le Fraser Institute). Il sagit dun exemple éloquent des objectifs qui sous-tendent ces invitations à comparer :
Un message de même nature a été diffusé le 24 mars 1999 dans The Province, un quotidien de Vancouver, qui a publié un article de fond (réparti sur trois numéros) portant sur le classement des écoles de la Colombie-Britannique (une autre réalisation du Fraser Institute). Une version encore plus accentuée de ce message a été diffusée dans le cadre de léditorial principal du 27 novembre 1999 du London Free Press :
Ces affirmations laissent croire que les écoles sont largement responsables des résultats obtenus par les élèves aux examens de compétences. Qui plus est, les élèves qui les fréquentent seront condamnés à vivre dans un milieu peu propice à lapprentissage, tant et aussi longtemps que les écoles où les élèves ont de piètres résultats ne seront pas forcées, par la compétition, à offrir une éducation de qualité. Ce qui nous semble problématique dans ces écrits est le fait que les auteurs font totalement abstraction des facteurs (autres que la qualité de lenseignement) dont lincidence sur les résultas des examens est bien connue. Voici quelques-un de ces facteurs : la stabilité de la situation familiale, lengagement et les attentes parentales à légard de la réussite scolaire des enfants, la stimulation du milieu familial dans la petite enfance et aux phases ultérieures, la motivation des élèves, le taux dabsentéisme des étudiants, de même que leurs aptitudes en matière dapprentissage (Christenson, Rounds et Gorney, 1992; Grolnick et Ryan, 1989; Jeynes, 1999; Keith, Keith, Quirk, Sperduto, Santillo et Killings, 1998; Lytton et Pyryt, 1998; McLean, 1997; Scarborough et Dobrick, 1994). En raison du fait que la répartition des élèves dans les différentes écoles ne se fait pas de façon aléatoire et à cause de labsence ou du peu de contrôle que les écoles peuvent exercer sur les facteurs énumérés ci-dessus, toute démarche visant à attribuer la responsabilité du rendement à lécole uniquement, sans tenir compte adéquatement de chacun de ces facteurs, est au mieux problématique et au pire, trompeuse. Par conséquent, nous croyons quen adoptant une position aussi peu étoffée sur une question aussi complexe (cest-à-dire les causes réelles des résultats obtenus par les élèves aux examens qui leurs sont administrés), les médias privent le public dune information juste et réaliste sur une question qui revêt la plus haute importance pour le fonctionnement des établissements scolaires et, par le fait même, pour léducation et le bien-être des enfants. Les mêmes remarques sappliquent aux affirmations contenues dans les articles où les fluctuations annuelles enregistrées par chacune des écoles dans les résultats aux examens font lobjet de commentaires. Par exemple, le Globe and Mail a braqué les projecteurs sur une école du district scolaire catholique de Toronto qui a déclaré une hausse de 48 % dans ses résultats aux examens de lecture. Le quotidien a attribué cette amélioration strictement à « leffort concerté de tous les intervenants de lécole dont lobjectif était le rehaussement du rendement » (Galt, 1999). De façon comparable, le Readers Digest attribuait, dans un article intitulé When teachers sell kids short (Nikiforuk, 1997), les progrès réalisés par une école du district de North York en Ontario au « plan daction qui comprenait davantage denseignement direct et séquentiel de la phonétique, de la grammaire et de lorthographe ». Il va sans dire que le fait de mentionner des écoles précises qui ont enregistré des progrès remarquables par rapport à lannée précédente et dexpliquer ces progrès uniquement par les efforts consentis par les écoles elles-mêmes nous laisse à penser, par déduction, que les écoles dont les progrès ont été plus mitigés sont fautives de ne pas avoir consacré autant defforts. Le problème qui se pose dans de telles situations réside dans le fait quil est difficile, voire impossible, dinterpréter tout progrès ou recul enregistré dans le temps par chacune des écoles, à moins davoir en main tous les renseignements sur la situation de lécole. Lexemple suivant, tiré du London Free Press, illustre bien la nature de ce problème. Dans léditorial principal qui a été cité précédemment, le London Free Press indique que 12 écoles du système scolaire catholique de London et du district de London ont enregistré « un bon prodigieux » entre 1998 et 1999, grâce à laction bénéfique de « professeurs spécialisés itinérants qui formaient léquipe dintervention tactique ». Si léditorialiste avait tenu compte des données réelles, ainsi que des renseignements de nature démographique que pouvaient lui fournir la commission scolaire catholique relativement à ces 12 écoles, il en aurait tracé un tableau passablement différent. Prenons la lecture par exemple. Les données auraient révélé à léditorialiste que seulement sept écoles sur 12 avaient enregistré des progrès dune ampleur assez considérable pour pouvoir être imputés hors de tout doute à dautres facteurs que la chance. Une analyse minutieuse des données démographiques lui aurait aussi appris que les sept écoles fructueuses présentaient des différences importantes par rapport aux cinq autres. Il aurait observé une diminution, dans les écoles fructueuses, du nombre moyen délèves par classe entre 1998 et 1999, alors que les cinq autres écoles enregistraient une hausse à ce chapitre. Par conséquent, le ratio élèves-enseignant, qui se traduit par une plus grande disponibilité des enseignants pour leurs étudiants, pouvait être à lorigine des progrès observés dans les écoles fructueuses. De plus, le nombre délèves de sexe masculin avait diminué dans les sept écoles fructueuses, alors quil avait augmenté dans les cinq autres écoles. On avait également enregistré, dans cinq des sept écoles fructueuses, une diminution moyenne de 12 % du nombre délèves pour qui la langue anglaise est une langue seconde (les allophones). Cette diminution a été inférieure à 2 % dans les cinq autres écoles. Nous mentionnons ces deux derniers aspects car les garçons et les allophones obtiennent généralement des résultats inférieurs à ceux des filles et des anglophones dans les examens de lecture. Essentiellement, cette combinaison de classes de moindre taille, ainsi que dun nombre inférieur de garçons et dallophones dans les sept écoles fructueuses peut suffire à expliquer les différences entre les deux groupes décoles, sans égard à lexistence du « groupe dintervention tactique ». Pour illustrer davantage le fait que le London Free Press aurait dû recueillir de plus amples renseignements avant de tirer quelque conclusion que ce soit, il conviendrait de se pencher sur les modalités de correction des examens en 1998 et en 1999 (normalisées dans lensemble de la province). Selon une note de service (datée du 15 novembre 1999) diffusée par lEducation Quality and Accountability Office (EQAO), organisme chargé de lélaboration et des modalités de correction des examens ontariens, les modalités utilisées en 1998 différaient de celles qui ont été prescrites en 1999. En 1998, les correcteurs dexamens se sont servis dune échelle à quatre niveaux (1, 2, 3, 4) pour déterminer le rendement de chaque élève, alors que lexamen de 1999 faisait appel à une échelle à sept niveaux (1, 1+, 2, 2+, 3, 3+, 4). On a apporté cette modification dans le but de permettre davantage de souplesse dans lattribution du résultat dans les cas où subsiste une incertitude relativement à la note que mérite létudiant (p. ex., la note 2 ou la note 3?). Cependant, la note finale accordée à chaque élève par lEQAO en 1999 a été établie en ramenant léchelle comprenant sept niveaux à une échelle qui en comportait quatre seulement. La note accordée au travail de létudiant a été attribuée en combinant les points dans chacune des catégories « plus » avec ceux du niveau supérieur immédiat. Autrement dit, le pointage final de létudiant en 1999 a été arrondi au premier niveau supérieur dès quun « plus » apparaissait dans son dossier. Puisque ce processus darrondissement nexistait pas en 1998 et puisque certaines écoles ont pu en profiter plus que dautres, il est difficile de déterminer si les progrès observés dans certaines écoles du système scolaire catholique de London et du district de London entre 1998 et 1999 auraient dû être attribués aux seuls efforts des écoles, comme le prétendait léditorial, ou auraient-ils dû plutôt être imputés à un facteur extérieur qui découle des modifications apportées au processus de correction. Bref, comme cest le cas lorsquon tente de déterminer la cause des différences observées dune école à lautre au cours de la même année, toute tentative visant à établir la cause des différences qui se manifestent dans une même école par rapport à lannée précédente pose autant de problèmes si lon nenvisage pas convenablement tous les paramètres qui entrent en jeu. Voici ce que le RAND Institute of Education and Training a écrit sur la question :
Au-delà du problème réel que pose linterprétation des résultats aux examens, notre plus grande préoccupation réside dans le tort qui pourrait être causé par les affirmations fausses qui en découlent. À titre dassociations vouées à lamélioration de la santé mentale chez les enfants et chez les adultes, nous sommes particulièrement troublés par la possibilité, lorsque la responsabilité des résultats des élèves aux examens est attribuée spécifiquement aux écoles uniquement, que lon mette des pressions indues sur les professeurs, les administrateurs et ultimement les élèves eux-mêmes afin quils améliorent leurs résultats aux examens pour ne pas risquer de perdre leur statut au sein de la collectivité. La situation que lon découvre actuellement aux États-Unis confirme clairement cette éventualité. Prenons par exemple le cas du Michigan où un classement semblable à celui que lon fait au Canada est diffusé par la presse depuis de nombreuses années.
Examinons également les rapports de presse qui portent sur la situation récente dans les États de New York, du Texas, du Massachusetts, du Maryland, de lOhio et du Connecticut. Dans tous les territoires de compétence, des membres du personnel scolaire ont été poursuivis en justice, ont été suspendus ou sont lobjet dune enquête pour comportement inconvenable. Dans tous ces territoires, on a déterminé que laccroissement de la pression sur les écoles à cause du classement est le facteur que lon retrouve constamment à la base de ces problèmes.
Des enquêteurs du système scolaire ont affirmé mardi que des douzaines denseignants et deux directeurs décole du système scolaire public de la ville de New York ont fourni à leurs étudiants les réponses aux examens normalisés de lecture et de mathématiques. Un enquêteur a affirmé que la tricherie qui perdure depuis cinq ans impliquait davantage détudiants et denseignants que tous les autres cas de tromperie observés dans des écoles publiques américaines au cours des dernières années. Dans certaines écoles, les élèves inscrivaient leurs réponses sur une feuille brouillon au vu et au su de leur professeur et directeur qui corrigeaient les réponses avant quelles ne soient inscrites sur le formulaire dexamen... Dans dautres écoles, on a donné aux élèves la directive de corriger les réponses erronées ou on les corrigeait pour eux. Les enquêteurs ont affirmé que dans un cas extrême particulier, Evelyn Hey, directrice de lécole publique 234 dans le Bronx, a non seulement ordonné aux élèves de modifier les mauvaises réponses, mais elle a aussi administré des examens de pratique qui contenaient des questions de lexamen réel. Les résultats des élèves aux examens se sont remarquablement améliorés dans bon nombre décoles et deux dentre elles ont même été retirées dune liste exhaustive décoles défaillantes. À lécole publique 234, les résultats en lecture ont fait un bond de 22 points de pourcentage pendant les années où Mme Hey et dautres enseignants ont eu recours à des tactiques trompeuses, explique le rapport denquête (Goodnough, 1999).
Une école primaire visitée récemment par le président Clinton et présentée comme un exemple de réussite des politiques scolaires adoptées par son administration est maintenant sous les feux de la rampe à la suite dallégations déposées par plusieurs élèves qui affirment que des membres de leffectif et des tuteurs ont aidé des élèves à tricher lorsquils ont passé les examens de compétences de 4e année. En outre, lenseignante (antérieurement honorée par un prix) qui a rapporté les confessions des élèves aux fonctionnaires du système scolaire avant de lancer laffaire sur la place publique affirme maintenant que sa carrière pourrait être compromise depuis quelle a refusé de se rétracter à la demande des administrateurs... Les allégations de tricherie ont été rendues publiques en décembre par Barbara McCarroll, enseignante dune classe de 5e année à Eastgate. Elle a déclaré, dans une interview accordée au Columbus Dispatches, que les dirigeants de lécole étaient au courant de la falsification des examens... Mais lenquête conduite par les autorités de lÉtat ne sera probablement daucun secours pour Mme McCarroll, qui a dû prendre un congé de maladie à long terme, en février, en raison des pressions que les administrateurs et les enseignants exercent sur elle pour quelle se rétracte promptement... « La situation sest tellement détériorée que je me suis mise à avoir des saignements internes, a-t-elle dit pendant linterview. Je ne mangeais plus et je ne dormais plus. Chaque jour, je me rendais au travail où plus personne ne me parlait ». Récipiendaire en 1995 du prix Good Apple pour ses réalisations en enseignement, Mme McCarroll réalise maintenant quelle a peut-être mis sa carrière en jeu en braquant les projecteurs sur ses collègues (Poole, 2000).
Dun point de vue plus personnel, la citation suivante dun enseignant de 5e année en Californie, extraite dun article paru récemment dans le New York Times, illustre très bien le dilemme auquel sont confrontés de nombreux pédagogues américains relativement au classement des écoles :
Les écrits de Lomax, West, Harmon, Viator et Madaus (1995), de Paris, Lawton, Turner et Roth (1991), ainsi que de Smith (1991) fournissent dautres commentaires et des preuves supplémentaires démontrant le tort que causent ces classements aux États-Unis. En résumant la plupart de ces preuves, voici ce que Rotberg (1995) a affirmé sur le principe visant à rendre les enseignants imputables à laide des résultats dexamens dans le but de favoriser le changement dans le système déducation :
À la lumière de la situation qui prévaut de plus en plus au États-Unis, et dans lespoir déviter de la reproduire au Canada, nous affirmons notre adhésion pleine et entière aux énoncés suivants qui ont été formulés par lOntario Education Quality and Accountability Office (le premier énoncé est extrait dun guide publié à lintention des parents, alors que le deuxième énoncé est tiré dun guide destiné aux pédagogues) :
Bref, le principal objectif des examens administrés à léchelle de la province sont, selon lEQAO, de permettre aux écoles et aux commissions scolaire de jauger, dune année à lautre, leurs propres progrès par rapport aux normes établies par le ministère de lÉducation. Les examens ne sont pas administrés dans le but de fournir un instrument permettant de mesurer le rendement des écoles les unes par rapport aux autres. En appuyant cette position de lEQAO, nous considérons donc quil est inconvenable que la presse invite le public à mettre en contraste le rendement dune école avec celui des autres écoles en se fondant uniquement sur les résultats que ses élèves ont obtenus aux examens. Nous pensons aussi que la presse devient de facto un utilisateur de résultats dexamens pédagogiques lorsquelle rapporte et interprète ces résultats. Nous croyons donc que la presse devrait être soumise aux mêmes ensembles de règles déontologiques qui sappliquent aux autres utilisateurs de ce matériel. Ces règles sont présentées dans des documents tels que Principes relatifs aux pratiques dévaluation équitable au Canada, Standards for Educational and Psychological Testing (AERA, APA, NCME, 1985, 1999) et Guidelines for Educational and Psychological Testing (SCP, 1987). Au moins deux de ces règles sappliquent directement à la situation décrite dans le présent document :
Dans lesprit de ces règles, nous recommandons que dans tout article qui fera état de résultats dexamens ou qui les interprétera, la presse sassure que le public est pleinement informé des différents facteurs autres que létablissement scolaire proprement dit qui sont probablement à la base des différences qui peuvent exister dune école à lautre. Comme il a été mentionné précédemment, ces facteurs sont (sans toutefois sy limiter) : la stabilité de la situation familiale, lengagement et les attentes parentales à légard de la réussite scolaire de leurs enfants, la stimulation du milieu familial dans la petite enfance et aux phases ultérieures, la motivation des élèves, le taux dabsentéisme des étudiants, de même que leurs aptitudes en matière dapprentissage. À titre de moyen supplémentaire pour éviter toute fausse compréhension de la part du public, nous recommandons aussi quune remarque comparable au paragraphe suivant soit inscrite de façon évidente à proximité de toute répartition des résultats par école :
Dans le cadre de ces recommandations, nous voulons exprimer clairement que nous ne visons aucunement à faire obstruction à la liberté de presse. Et que nous ne cherchons en aucune façon à entraver tout débat public sur les meilleures méthodes à adopter en matière déducation des enfants. Nous croyons toutefois que les intérêts du public sont mal servis lorsque la population est exposée à des renseignements trompeurs et à des données spéculatives présentées sans preuves. RemerciementsNous aimerions exprimer toute notre gratitude aux membres suivants du Groupe de travail, qui ont fourni de nombreux commentaires fort utiles sur une version antérieure du présent document : Sampo Paunonen, Nicholas Skinner et P. A. Vernon. Nos remerciements sadressent également à Brian Reiser, Gary Rollman et Phyllis Simner, qui nous ont fait profiter de nombreuses références importantes, de même que de leurs commentaires des plus pertinents. AERA, APA, NCME. (1985). Standards for educational and psychological testing. Washington, DC : American Psychological Association. AERA, APA, NCME. (1999). Standards for educational and psychological testing. Washington, DC: American Psychological Association. Bushweller, K. (1997). Teaching to the test. The American School Board Journal, septembre, vol. 20. Fédération canadienne des enseignantes et enseignants. (1999). Programmes dévaluation à léchelle provinciale. Disponible en direct à ladresse suivante : http://www.ctf-fce.ca/F/NOTRE/mesure/fmain-mesure.htm Christenson, S. L., Rounds, T. et Gorney, D. (1992). Family factors and student achievement: An avenue to increase student's success. School Psychology Quarterly, 7, pp.178 à 206. Cowley, P. (20 juin 1999). Comparing schools made possible. Calgary Herald, p. A10. CPA (1987). Guidelines for educational and psychological testing. Ottawa (Ontario): Société canadienne de psychologie. Daniszewski, H. (4 mai 1999). Upping the score. London Free Press, p. A10. EQAO. (1998a). Parent handbook 1997-1998. Toronto (Ontario) : Imprimeur de la reine pour lOntario. EQAO. (1998b). Educators handbook. Toronto (Ontario) : Imprimeur de la reine pour lOntario. Froese-Germain, B. (1999). Les tests standardisés : atteinte à léquité en éducation. Ottawa (Ontario) : Fédération canadienne des enseignantes et enseignants. Galt, V. (26 novembre 1999). Scarborough school's grade 3 posts sharp rise in test scores. The Globe and Mail. Goodnough, A. (9 décembre 1999). New York city teachers nabbed in school-test cheating scandal. National Post, p. B1. Grolnick, W. S. et Ryan, R. M. (1989). Parent styles associated with children's self-regulation and competence in school. Journal of Educational Psychology, 81, pp. 143 à 154. Haladyna, T. M., Nolen, S. B. et Haas, N. S. (1991). Raising standardized achievement test scores and the origins of test score pollution. Educational Researcher, 20, pp. 2 à 7. Herman, J. L., Abedi, J. et Golan, S. (1994). Assessing the effects of standardized testing on schools. Educational and Psychological Measurement, 54, pp. 471 à 482. Herman, J. L. et Golan, S. (1993). The effects of standardized testing on teaching and schools. Educational Measurement: Issues and Practice, hiver 1993, pp. 20 à 42. Hixson, B. K. (25 janvier 2000). How tests change a teacher. The New York Times. Jeynes, W. H. (1999). The effects of children of divorce living with neither parent on the academic achievement of those children. Journal of Divorce & Remarriage, 30, pp. 103 à 120. Jones, K. et Whitford, B. L. (1997). Kentucky's conflicting reform principles: High-stakes school accountability and student performance assessment. Phi Delta Kappan, 70, pp. 276 à 281. Keith, T. Z., Keith, P. B., Quirk, K. J., Sperduto, J., Santillo, S. et Killings, S. (1998). Longitudinal effects of parent involvement on high school grades: Similarities and differences across gender and ethnic groups. Journal of School Psychology, 36, pp. 335 à 363. Lomax, R. G., West, M. M., Harmon, M. C., Viator, K. A. et Madaus, G. F. (1995). The impact of mandated standardized testing on minority students. Journal of Negro Education, 64, pp. 171 à 185. Lytton, H. et Pyryt, M. (1998). Predictors of achievement in basic skills: A Canadian effective schools study. Revue canadienne de l'éducation, 23, pp. 281 à 301. Madaus, G. F. (1985). Test scores as administrative mechanisms in educational policy. Phi Delta Kappan, 66, 611-617. McLean, R. (1997). Selected attitudinal factors related to students' success in high school. The Alberta Journal of Educational Research, 43, pp.165 à 168. Mathews, J. et Argetsinger, A. (2 juin 2000). Teachers say pressure to do well on tests is enormous. Washington Post, p. B1., A18. Nikiforuk, A. (Avril 1997). When teachers sell kids short. Reader's Digest, pp. 119 à 120. Paris, S. G., Lawton, T. A., Turner, J. C. et Roth, J. L. (1991). A developmental perspective on standardized achievement testing. Educational Researcher, 20, pp. 12 à 20, 40. Poole, P. (31 mai 2000). Brave new schools: Clintons model school accused of cheating. WorldNetDaily (en direct). Adresse internet : www.worldnetdaily.com/bluesky_exnews/ 2000531_xex_ clintons_mod.shtml. Principes relatifs à une évaluation juste des étudiants au Canada / Principles for fair student assessment practices for education in Canada. (1993). Edmonton (Alberta) : Joint Advisory Committee. (Adresse postale : Joint Advisory Committee, Centre for Research in Applied Measurement and Evaluation, 3-104 Education Building North, University of Alberta, Edmonton (Alberta) T6G 2G5). Rotberg, I. C. (1995). Myths about test score comparisons. Science, 270, pp. 1446 à 1448. Salganik, L. H. (1985). Why testing reforms are so popular and how they are changing education. Phi Delta Kappan, 66, 607-610. Scarborough, H. S. et Dobrick, W. (1994). On the efficacy of reading to preschoolers. Developmental Review, 14, pp. 245 à 302. Smith, M. L. (1991). Put to the test: The effects of external testing on teachers. Educational Researcher, 20, pp. 8 à 11. Whitaker, B. (8 avril 1999). Prosecutor says indictment of Austin schools will help deter test tampering. The New York Times. Wilgoren, J. (25 février 2000). Cheating on state wide tests is reported in Massachusetts. The New York Times.
|
Approuvé par le Conseil dadministration de la Société canadienne de psychologie en avril 2000, ainsi que par le Conseil exécutif de lAssociation canadienne des psychologues scolaires en juillet 2000. Canadian Psychological Association Tous droits réservés © 2000 Toute personne voulant reproduire le présent document est autorisée à le faire. Société canadienne de psychologie Titre : Énoncé de position conjoint de la Société canadienne de psychologie et de lAssociation canadienne des psychologues scolaires relativement à la couverture, par la presse canadienne, des résultats des examens de compétences administrés à léchelle de la province. ISBN # 1896638630
|