48

Mayo 2010

  • Enviar
  • Suscríbete

EDITORIAL

¿Los rankings miden la calidad docente?

Josep Anton Ferré Vidal - Director de AQU Catalunya
A veces, en clase, uso una varita mágica. Bien, como podéis suponer, no la utilizo exactamente para hacer lo que hace Harry Potter, sino que la uso para realizar experimentos virtuales que me ayuden a explicar las cosas, como por ejemplo el principio de Arquímedes. Pero dejaremos para otro día el hallazgo y os explicaré qué me ha pasado hoy volviendo de Madrid con el AVE, al utilizarla para mejorar la posición de nuestras universidades dentro de los rankings mundiales.

He realizado cuatro experimentos. Primero he usado la varita mágica para lograr que durante un curso académico no hubiera ningún alumno suspendido, o sea, que todos los créditos matriculados fueran superados. ¡Sorprendentemente, eso no ha hecho subir posiciones a ninguna universidad catalana en ningún ranking! Después lo he probado haciendo que ninguno de los estudiantes matriculados abandone el título que había empezado. Los efectos han sido los mismos: ¡seguimos sin subir en los rankings! El tercer intento me ha servido para probar los efectos de provocar que una cohorte entera de estudiantes alcance el título sin tener que repetir ni una sola asignatura... y tampoco ha tenido ningún efecto en los rankings. Quizá he sido demasiado exigente. Quizá bastaría con conjurar las fuerzas de la naturaleza para que nos ayudaran a que los estudiantes pudieran acabar el título como máximo añadiendo un año más, ¡y tampoco se ha notado!

Estoy preocupado. Estos cuatro indicadores que he manipulado con la varita mágica (tasa de rendimiento, tasa de abandono, tasa de eficiencia y tasa de graduación) son los del Decreto 1393/2007, interpretados y explicados con más detalle en el documento elaborado por las agencias de la REACU (AQU Catalunya, ANECA, ACSUG, AGAE, ACSUCYL, etc.) que hoy hemos entregado a los representantes del Ministerio de Educación, de las comunidades autónomas y de las universidades, durante la reunión de constitución de la Comisión Técnica para el Seguimiento y Acreditación de los Títulos Universitarios Oficiales. Si estas son las mínimas metas comunes que nos hemos marcado para realizar el seguimiento de los títulos, ¿cómo es posible que, aunque alcancemos en cada una de ellas los mejores valores, eso no nos hace subir en los rankings?

¿Nos hemos equivocado? A mí me parece que no. Y no solamente eso. Para hacerlo bien, de ahora en adelante deberíamos medir no sólo los outputs del proceso educativo, sino también los inputs. Por ejemplo, las horas de clase que programamos para cada asignatura, las que son magistrales y las que son prácticas, y el número de estudiantes por grupo en cada actividad. Y los profesores que las realizan. ¿Son asociados, becarios, lectores que todavía batallan por consolidar su tenure track o permanentes? Y los laboratorios y las bibliotecas, ¿cómo los tenemos? ¡Ah!, y los horarios, ¿son compactos o dispersos? ¿Qué métodos de evaluación se utilizan? Y el Moodle... ¿Cargan los profesores suficientes materiales en el Moodle?

Si no monitorizamos también esas cosas, en caso de que las tasas de abandono, graduación, etc. no sean las que esperábamos, no sabremos si ya efectuamos todo el esfuerzo que puede hacerse, o todavía sería necesario que destináramos a ello más recursos que, quizá, empleábamos en otras actuaciones. De hecho, medir algunos outputs del proceso, proponernos mantenerlos por encima de un valor umbral y ser capaces de actuar sobre algunos inputs para realizar acciones de control es el objetivo del sistema de garantía interna de calidad de cada enseñanza, que ahora vamos desarrollando con el programa AUDIT.

Así pues, ¿en qué quedamos?, ¿cómo tenemos esto de los rankings? Lo he vuelto a repasar. La mayor parte de los rankings miden fundamentalmente un determinado tipo de investigación. Lástima, pobres alumnos, que no son demasiado importantes para los rankings. Claro está que parece que no son los únicos olvidados. Tampoco hay ningún ranking que mida casi nada de la tercera misión, de la capacidad de las universidades de transformar la docencia en valor social y económico para su entorno más inmediato. Desde luego que tanto la primera misión como la tercera son más difíciles de medir y, de hecho, no les damos mucha importancia en el currículum de los profesores.

Contar número total de alumnos, artículos en revistas indexadas y premios Nobel es más fácil. Si juntáramos a todas las universidades catalanas, tendríamos más alumnos, más artículos... y todavía ningún premio Nobel. Pero subiríamos en el ranking de Shangai. Quizá esto nos haría más felices, pero nos engañaríamos si nos creyéramos que, por ser mayores, somos mejores. Los rankings no son ni buenos ni malos. Son como algunos refrescos, que engordan pero no alimentan, y, si tienes que beber mucho, más vale que leas su composición. También deben leerse con atención los criterios e indicadores que forman los rankings antes de hacer mucho caso de ellos. Y en caso de duda, agua... y algo de vino, ¡que no hace nunca demasiado daño!
ENQA EQAR ISO

Generalitat de Catalunya

Via Laietana, 28, 5ª planta 08003 Barcelona. España. Tel.: +34 93 268 89 50

© 2010 AQU Catalunya - Depósito legal B-21.909-2008