martes, 28 de octubre de 2014

¿Por qué quitaron la prueba ENLACE?

Entrada nueva en Blog de Humberto Cueva

¿Por qué quitaron la prueba ENLACE?

by humbertocueva

enlace

¿Por qué quitaron la prueba ENLACE?

(Fragmento)
El Programa Internacional de Evaluación de Estudiantes (PISA, por sus siglas en inglés), coordinado por la Organización para la Cooperación y Desarrollo Económico (OCDE) inició en el año 2000.
Los tomadores de decisiones y la prensa de muchos países creen firmemente que la información de PISA es importante para las reformas educativas y le ponen mucha atención cada vez que se publican sus resultados (Ben-Simon y Cohen, 2004).
La rendición de cuentas de la evaluación de logro ha adquirido gran preponderancia debido, al menos, a tres razones: (1) el convencimiento de los países de que una mejor educación traerá un mayor desarrollo económico y una menor desigualdad social; (2) la creencia de los gobernantes y de un sector de la sociedad de que la exposición pública de los resultados educativos sirve como “motor” o incentivo, por sí mismo, para el mejoramiento de la calidad educativa; y (3) la exigencia creciente de la sociedad por conocer los resultados de los programas de gobierno, entre los que se encuentran los educativos.
Esta exigencia ha pasado rápidamente, del ámbito nacional y estatal, al de la escuela y del docente. Más aún, a la evaluación con función de rendición de cuentas se le han asociado  consecuencias de mayor impacto, tales como el otorgamiento de estímulos económicos y laborales a los maestros, el reconocimiento a las escuelas y a los estudiantes con mejores puntuaciones, o la amenaza de cerrar aquellos planteles que no presenten una mejora significativa.
Las pruebas de logro con funciones de rendición de cuentas se consideran evaluaciones de alto impacto por las consecuencias que están asociadas a ellas. Este tipo de evaluaciones tiende a responsabilizar a las instituciones (autoridades federales y locales, organismos descentralizados, escuelas) y a las personas (directores y docentes) de los resultados de aprendizaje de los estudiantes. En consecuencia, cuando se rinden cuentas públicamente, el prestigio social de las instituciones y de las personas “responsables” de los bajos resultados educativos se pone en entredicho (Ravela, 2006). Esta situación genera incentivos para que se “inflen” los resultados de las evaluaciones a través de una gran variedad de mecanismos, algunos muy obvios y otros más sutiles.
En el ámbito educativo, la inflación de los resultados se entiende como un crecimiento desmedido de las puntuaciones que arroja una prueba conforme se aplique a lo largo del tiempo y se mantengan las consecuencias asociadas para los involucrados (Koretz, 2010). Este fenómeno inflacionario está muy bien estudiado en distintos ámbitos de las ciencias sociales y se le conoce como corrupción de las medidas y lleva el nombre de“Ley de Campbell”, la cual afirma que: “Entre más se utilice cualquier indicador social cuantitativo para tomar decisiones sociales, más sujeto estará a las presiones de corrupción y será más propenso a distorsionar y corromper los procesos sociales que pretende monitorear” (Campbell, 1975: 35). Lo anterior sugiere que no es necesario asociar a las mediciones estímulos de cualquier naturaleza para que éstas tiendan a corromperse; basta con que haya un interés público del indicador y que éste aparezca con suficiente frecuencia en los medios de comunicación.
Diversos investigadores se han dedicado a estudiar las razones y mecanismos que hacen que los resultados presenten estas inflaciones (Koretz, Linn, Dunbar y Shepard, 1991; Heubert y Hauser, 1999; Koretz, 2005; Holcombe, Jennings y Koretz, 2012). Por lo general, señalan que la presión por obtener mejores puntuaciones (o sufrir las consecuencias implícitas) induce a que los profesores reduzcan la enseñanza del currículo a los contenidos que evalúan las pruebas, dediquen gran parte del tiempo de clase a la preparación-para-la-prueba, permitan la copia entre estudiantes o eviten que los alumnos con menor rendimiento sean evaluados.
A principios de siglo aparecen en el escenario nacional tres grandes proyectos evaluativos: PISA, que se implementa por primera ocasión en el año 2000; la creación del INEE en 2002 y, con él, las evaluaciones de aprendizaje de gran escala, conocidas como Excale (Exámenes para la Calidad y el Logro Educativos), cuyos resultados se publicaron por primera ocasión en 2005; y ENLACE (Exámenes Nacionales de Logro en Centros Escolares), proyecto de la SEP que también iniciara en 2005 en educación básica (ENLACE/básica), y en 2008 para educación media superior (ENLACE/MS).
Tanto PISA como Excale son evaluaciones de bajo impacto diseñadas para aplicarse amuestras nacionales de estudiantes de manera cíclica —PISA cada tres años y Excalecada cuatro—, con propósitos meramente informativos y de rendición de cuentas a escala nacional; por su naturaleza muestral los resultados solo se publican con altos niveles de agregación: país, estados y estratos educativos.
La prueba ENLACE fue creada para ser utilizada de manera censal y anual. A pesar de que su propósito original fue meramente informativo y pedagógico (dirigido a padres de familia, docentes y directores) en un par de años se convirtió en un instrumento de rendición de cuentas de escuelas y docentes. Los resultados de ENLACE/básica se hicieron públicos a través de rankings escolares, a los docentes se les pagó un estímulo salarial de acuerdo con los resultados de sus estudiantes, y a las escuelas y alumnos con mejores resultados el Presidente de la República les entregaba un reconocimiento cada año.
En estas condiciones, la publicación de resultados de la prueba ENLACE/básica tuvo un gran impacto en la sociedad y en los medios de comunicación, ya que permitía hacer todo tipo de comparaciones y ordenamientos entre las cerca de 250 mil escuelas de educación básica del país. Desafortunadamente, las altas consecuencias que se le asociaron a ENLACE/básica, tanto sociales como económicas, generaron una dinámica perversa en el sector educativo para mejorar los resultados de los estudiantes a toda costa y, con ello, aumentar el prestigio social de los planteles y la percepción económica de los docentes.
Aunque solo se tiene información anecdótica y aislada, se sabe del robo y venta de exámenes, de la copia de respuestas entre alumnos, del dictado de respuestas por parte del docente encargado del examen, de la preparación que planea la escuela para la prueba (ejemplo: jueves de ENLACE), y de la costumbre de evitar que alumnos con bajo rendimiento asistan a la escuela el día de aplicación de la prueba. Estas prácticas ocasionaron un aparente incremento de las puntuaciones de ENLACE/básica, que inexplicablemente iban mejorando exponencialmente en algunos estados, especialmente en aquellos con los rendimientos más bajos, como eran los casos de Oaxaca, Chiapas y Guerrero.
Ante las diversas denuncias y críticas de las prácticas que incentivaba la pruebaENLACE/básica, así como la pérdida de credibilidad de sus resultados, en 2013 el secretario de Educación Pública, Emilio Chuayffet Chemor, declaró la suspensión de las pruebas ENLACE/básica. Esta decisión fue apoyada por el INEE basándose en las evidencias de invalidez de los resultados que se disponían en el momento. ..
Tomando en cuenta los resultados obtenidos, podemos afirmar que debido a las altas consecuencias de ENLACE/básica (rendición de cuentas de las escuelas más estímulos económicos a los docentes) sus medidas se corrompieron, por lo que sus últimos resultados están inflados y no son confiables.
Para finalizar, hay que decir que las evaluaciones estandarizadas, cuando se utilizan con mucha frecuencia, sirven para la rendición de cuentas y tienen consecuencias importantes para las escuelas, los docentes o los alumnos tienden a corromperse pronto y ocasionan el fenómeno de la inflación, lo que a su vez, invalida la información que pretenden proporcionar. Esta realidad nos confronta con un dilema social y nos obliga a repensar cómo utilizar la evaluacion de logro para la mejora educativa. Algunos autores, como la Comisión Gordon (2013) ya lo han hecho, al señalar que se debe de disminuir el peso que tiene la rendición de cuentas en las evaluaciones estandarizadas y aumentar la importancia de su función pedagógica, es decir, aquella que es útil en el salón de clases para el docente y sus estudiantes.
En otras palabras, como dice Martínez-Rizo (2003), “la evaluación de la calidad educativa cobra sentido cuando contribuye a que dicha calidad mejore. Para que las evaluaciones nacionales cumplan con sus propósitos es importante que tengan un perfil de bajo impacto que ayuden a garantizar que la información que proporcionan, tengan la mayor validez y confiabilidad posible. De tal suerte que orienten las estrategias necesarias para contribuir a la calidad de la educación y al máximo de los aprendizajes de los estudiantes.
*NEXOS / Sofía Contreras Roldán • Eduardo Backhoff Escudero. núm. 442 octubre 2014
images-3
10354727_10152567646334507_4895148734500036320_n
Comentario   Ver todos los comentarios
Cancelar la suscripción para no recibir entradas de Blog de Humberto Cueva.
Modifica los ajustes de tu correo electrónico en Administrar suscripciones.
¿Tienes problemas haciendo clic? Copia y pega esta URL en tu navegador: 
http://humbertocueva.mx/2014/10/28/por-que-quitaron-la-prueba-enlace/

No hay comentarios:

Publicar un comentario

 

¿Te gusta la nueva cara del blog?

Blogroll

About

ENVÍA ESTA PÁGINA A UN AMIGO
Indica su e-mail: