Sobre la “objetividad” de la evaluación
Guillermo
Bustamante Zamudio
Universidad
Pedagógica Nacional
¿Qué es
entonces la verdad? Una hueste en movimiento de metáforas, metonimias,
antropomorfismos, en resumidas cuentas, una suma de relaciones humanas que han
sido realzadas, extrapoladas y adornadas poética y retóricamente y que, después
de un prolongado uso, un pueblo considera firmes, canónicas y vinculantes; las
verdades son ilusiones de las que se ha olvidado que lo son; metáforas que se
han vuelto gastadas y sin fuerza sensible, monedas que han perdido su
troquelado y no son ahora ya consideradas como monedas, sino como metal.
Friedrich
Nietzsche
1. ¿Todos del mismo lado?
De una u otra manera, alrededor de la
escuela todos hablamos de, o pretendemos una, evaluación “objetiva”:
· los maestros
decimos que evaluamos objetivamente, es decir, que evaluamos bien;
· los
estudiantes piden ser evaluados objetivamente, es decir, de manera equitativa;
· los padres
sancionan o premian a sus hijos, basados en las evaluaciones que se les
practican y confiando en que sean objetivas, es decir, que revelan realmente el
esfuerzo de sus hijos;
· el sindicato
de maestros exige que la evaluación a los docentes sea objetiva, es decir, que
no sirva para sancionarlos ni para frenar los ascensos en el escalafón;
· los
evaluadores profesionales sostienen que sus pruebas (SABER, PISA, TIMMS, PIRLS,
etc.) son objetivas, es decir, que están estandarizadas mediante procedimientos
matemáticos;
· el Ministerio
de Educación Nacional ordena que los maestros hagan una evaluación objetiva, es
decir, teniendo en cuenta todos los aspectos posibles, con tal de que no haya
repitencia y, por consiguiente, que aumente la eficiencia interna del sistema;
· las
instancias que rigen la educación pregonan que la evaluación institucional, es
objetiva, es decir, sin sesgos, gracias a que consiste en el llenado de una
serie de formatos;
· los
organismos internacionales exigen evaluaciones objetivas, es decir,
psicométricas, como condición para garantizar que los préstamos que otorgan
para educación se usen de buena manera y no con base en decisiones antojadizas
que van en detrimento del tesoro público;
· etc.
¡Todos usamos la misma palabra:
“objetividad”! Pero, ¿eso indica que tenemos un acervo común, que estamos
entendiendo lo mismo? No parece ser, pues significa: buena factura, equidad, un
indicador, una manera de mantener el fuero, estandarización, eficiencia
interna, diligenciamiento de formatos, ajuste fiscal. Entonces, parece
tratarse, más bien, de un amplio espacio donde no sólo se dirime toda clase de
intereses sociales y políticos, sino también concepciones educativas muy
diversas e, incluso, posiciones distintas sobre la totalidad de la experiencia
humana. De manera que si bien parecen hablar de lo mismo, no hablan de lo
mismo. Esta es —según Pierre Bourdieu— una de las formas de reproducción del
sistema social, que cuenta con la complicidad de todos.
Ahora bien, en ese amplio espacio parecen
identificarse dos modalidades de inserción, según se expliciten o no los
fundamentos desde los que se habla de evaluación objetiva:
· La primera
modalidad no necesita explicitar sus fundamentos, dado el lugar que se
auto-adjudica (con cierto apoyo en ideas sociales). Es por eso que, conminada a
explicitarlos, tal vez no sepa cómo hacerlo, pues esa práctica teórica no es
condición de la posición en la que se sitúa, que más bien alude —no interesa
aquí si con razón o no— de manera vaga al campo de los derechos.
· La segunda
modalidad explicita sus fundamentos porque se relaciona con un tipo de práctica
—la teórica— que sí le exige hacerlo. De manera que no es superior a la otra,
sino diferente; aunque, a la hora de implementar las evaluaciones masivas, esta
diferencia se va a usar contra la primera posición, la cual, por su
especificidad, no suele oponerle algo consistente, sino más bien adaptación.
En el primer caso, padres, estudiantes,
maestros y administrativos tienen distintos niveles de creencia sobre la
evaluación objetiva y, sobre todo, distintos intereses al respecto. Y como esos
intereses (muchas veces poco confesables) en su mayoría no son teóricos, una
manera de sostenerlos es no someterlos a discusiones racionales. Cada uno
quiere mantener (o “mejorar”) su ángulo de relación con la educación,
cualquiera sea, no importa. Desde esa perspectiva, no hace falta asumir el
riesgo de ser movido, de tener que pensar de otra manera. Así se sepa o no, es
innegable la ventaja que esto representa para la reproducción de las
condiciones sociales. Ahora bien, en esta posición se puede —y se suele— hablar
de transformar la sociedad, pero generalmente en la medida en que eso garantice
la permanencia del interés propio, lo que, de hecho, mantiene las condiciones
sociales.
Y, en el segundo caso, la psicología
experimental tiene una definición explícita de “evaluación objetiva”, enmarcada
en un entramado categorial propio, susceptible de ser debatido en el campo
teórico. Esta perspectiva se reputa mejor por el hecho de ser teórica, y muchas
veces deja a la otra en silencio (con la opción de la adaptación y su
concomitante queja improductiva) por no poder responder al mismo nivel. Sin
embargo, la aplicación de esta perspectiva ¡no ha rendido todos los frutos que
promete! Pero no decimos esto con la esperanza de que, introduciendo unos
correctivos (como que la evaluación no sea sanción, o que la evaluación sea
formativa, etc.), entonces sí va a poder rendir tales frutos. Es que está
estructuralmente impedida de hacerlo. De hecho, se puede decir que las cosas
siguen más o menos igual en educación; los efectos perversos que ha introducido
la evaluación masiva no podemos achacárselos en su totalidad a esta
perspectiva, dado que se necesita quién los imagine y los ejecute, asunto que recae
sobre todos los que tenemos que ver con la educación.
Pero, ¿por qué una perspectiva racional de
evaluación no ha funcionado? ¿Será entonces que la educación no se juega toda
del lado de los argumentos teóricos? Desde Clemente de Alejandría (siglo II) ya
se sospecha que se trata de una práctica, es decir, algo distinto de la
exposición y revelación de la verdad. Se nos ha olvidado que la educación
funcionaba (bien o mal… como siempre) antes de introducir la psicología
experimental en el campo educativo. ¿Cómo hacía para funcionar, para producir
sus efectos (como, por ejemplo, educar a los que se inventaron la psicología
experimental), en ausencia de esa supuesta panacea de las evaluaciones masivas?
Estas preguntas nos permitirán indagar
también hasta dónde y cómo ha entrado a la educación el discurso de la
psicología experimental: ¿no ha sido, más bien, una forma particular de
recontextualización de la matemática, al servicio de ciertos intereses? En tal
caso, habría que caracterizar dicha recontextualización, pues el hecho de
mencionar la estadística no quiere decir que se respete su gramática; no
olvidemos que las evaluaciones masivas no se hacen en el campo disciplinar de
la matemática, sino en el campo político de las decisiones sobre educación.
Así las cosas, las numerosas posturas
frente a la “evaluación objetiva” que listábamos al comienzo vuelven a
conformar un solo paquete de intereses variados, que usan a discreción, cuando
les conviene, adaptaciones de ciertos discursos teóricos. Ante esta situación
—diversos intereses, niveles de explicitación y de elaboración—, todo el mundo
puede pasar de agache; incluso denunciándose los unos a los otros, pero, eso
sí, sin interrogar su propio lugar. Al final, las políticas educativas de
cualesquier características se imponen, gracias a los actos de cada uno de los
agentes educativos, de nosotros, así nuestros enunciados sean la denuncia, la
demanda, la crítica. Y lo que llamamos “investigación educativa” puede estar
perfectamente al servicio de esa confusión, de una u otra de las tensiones que
se presentan en su seno. Pero, al final, no produce condiciones de posibilidad
para algo distinto, aunque —paradójicamente— algunas de sus banderas sean la
“innovación” y la “transformación”.
¿Destino ineluctable? No necesariamente:
De un lado, es posible diferenciar entre el
acto formativo y los pequeños y mezquinos intereses personales. El acto
formativo no ha necesitado ser esclarecido para funcionar, de manera que hasta
dónde es necesario avanzar en la comprensión para que funcione o, más bien,
para entender cómo funciona. Y, por su parte, los pequeños y mezquinos
intereses personales, que encarnan de manera singular intereses sociales, no
tienen por qué desaparecer, pero es que cuando ocupan toda la escena, se pueden
oponer al acto formativo.
Y, de otro lado, una investigación hecha
desde la fortaleza de los campos conceptuales, podría contribuir a dar cuenta
—en la medida de lo posible— de ese terreno difuso de los intereses. Por esa
razón, la investigación no puede ser difusa ella misma, no puede ser
interdisciplinaria antes de ser disciplinaria, no puede ser una
recontextualización. Con sus herramientas, podríamos tener más tacto a la hora
de denunciar, más entereza para analizar el contexto creado por nuestros
propios actos (incluyendo los que llamamos “investigativos”) y más conocimiento
de causa a la hora de proponernos transformar la educación.
2. Objetividades
Vamos a ampliar un poco algunos de los
puntos listados más arriba, atendiendo sobre todo a las implicaciones de las
posturas asumidas por los distintos agentes educativos.
2.1 Conformidad con una
forma de representarse la ciencia
Pedir evaluaciones “objetivas” es parte de
un comportamiento social inscrito en una forma de calificar las actividades
humanas: objetivas o subjetivas. Dicha oposición pudo surgir cuando se empezó a
relacionar la ciencia con una dedicación exclusiva al objeto y una eliminación
concomitante del sujeto. La ciencia moderna se definió “a prueba de sujeto”, es
decir, que lo que está ligado al sujeto es “arbitrario”, “impreciso”,
“parcializado”, “desconfiable”, “tendencioso”. De ahí que a algunas teorías,
por el hecho de ocuparse de lo humano —aun cuando lo hagan para manifestar un
determinismo más, en el más arraigado espíritu objetivista—, se las haya subvalorado,
se les haya negado el estatuto de científicas, o se las haya calificado de
ciencias “blandas” o de “conjeturales”.
Entonces, cuando los estamentos educativos
piden evaluación objetiva, por una parte, pueden estar aspirando a no ser
acusados de “subjetivos” (inferiores a la ciencia); pero con ello únicamente
garantizan estar a tono con los estereotipos de moda: hoy en día el paradigma
de la objetividad científica se menciona hasta para aquilatar las supuestas
ventajas de un jabón, cuando sabemos que la empresa, en realidad, sólo espera
vender más, independientemente de los argumentos cientificistas, pero gracias a
ellos. Este “estar a tono” implica utilizar una forma de juicio como forma de
ver el mundo, con lo que no se la puede interrogar o desmontar, sino solamente
validarla. Esta petición de “objetividad” es, entonces, acuerdo
—consciente o no— con una forma dominante de representarse la ciencia (que
hace parte de un modelo de sociedad).
2.2 Validación de un
modelo de sociedad
Por otra parte, cuando los estudiantes (o
los padres) piden evaluación objetiva, esperan tener las mismas opciones que
los demás (o que sus hijos las tengan), pues en el ámbito educativo no siempre
son evaluados positivamente los “mejores” ni negativamente los “peores”. De ahí
que, cuando se anuncia evaluación de maestros, inmediatamente preguntemos
«¿quién nos va a evaluar?», «¿con qué criterios?». La petición es, entonces, de equidad.
Situación que todos conocen, pues en lo social pasa exactamente lo mismo: los
puestos de trabajo, los ascensos, las distinciones, los incentivos, etc., no
siempre son asignados en función de la capacidad del sujeto, pese a que la
acción se valide mediante una evaluación (caso en el que “evaluación objetiva”
es, en realidad, legitimación de época). No obstante las
condiciones descritas, cuando la demanda y la oferta de “evaluación objetiva”
no están integradas a acciones de cuestionamiento y transformación de la
situación inequitativa, finalmente validan un modelo dominante de sociedad.
Este modelo domina de tal manera la vida
social y personal que es esperable que no se pida una evaluación objetiva
cuando se tenga la certeza de ser escogido, promovido, premiado, etc., sea con
los criterios que sea. La petición o no de objetividad, en ese caso, indicaría,
más bien, el lado en el que está quien la demanda; de donde “objetividad” se
convierte en conveniencia (que también legitima, deliberadamente
o no, la situación).
2.3 Autovalidación no
problemática del saber disciplinar
Los maestros decimos —o pensamos— que en el
quehacer educativo nuestras evaluaciones son objetivas. En este contexto,
resulta pertinente preguntarse qué evalúa el maestro y, en
consecuencia, si desde la perspectiva del saber lo hacemos objetivamente, como
creemos. No obstante, es muy difícil acercarse al saber disciplinar objeto de
las evaluaciones, pues la mayoría no quiere que un extraño entre a su clase,
que debata su saber; y, entonces, pasamos a la defensiva: «yo ya me gradué»… o:
«la Constitución consagra la libertad de cátedra»… o, peor
aún: «esa es mi opinión, usted tiene derecho a tener otra». Esta actitud
—explicable en la medida en que la evaluación al maestro ha sido, en muchos
casos, una mirada externa con efectos punitivos—, no necesariamente se
compadece con el manejo que hacemos de las disciplinas, según han encontrado
los estudios etnográficos... Alguna cosa significará el hecho de que el 60% de
los maestros pierdan la prueba de competencias… ¡Significa que la prueba está
mal hecha!, nos apresuramos a decir; salvo que la prueba está hecha con
preguntas formuladas por maestros.
Es decir, con la pretensión de evaluar
objetivamente, el maestro (además de pasar los controles y cumplir sus
obligaciones) hace una autovalidación no problemática de su saber
disciplinar. Decimos “no problemática”, pues no media una interrogación
sobre el saber, sobre sus condiciones de recontextualización en la escuela ni,
mucho menos, una discusión con el campo académico correspondiente (en cuyo
caso, es una contradicción en los términos la idea de autovalidar un saber
disciplinar). Por supuesto que hay que aclarar que las condiciones de
reproducción del rol de maestro en nuestro país no pasan por la consolidación
de una relación con los campos disciplinares. Algunos maestros lo hacen contra
las condiciones de posibilidad dadas por el sistema educativo.
2.4 Autovalidación no
problemática del saber metodológico
Ante nuestra idea, como maestros, de que
nuestras evaluaciones son objetivas, resulta pertinente preguntar cómo
evalúa el maestro y, en consecuencia, si desde la perspectiva
metodológica efectivamente lo hacemos de manera objetiva. Pero así como no
dejamos acercar a otro para que indague nuestra relación con el saber, tampoco
permitimos que pongan la mirada sobre nuestras maneras de hacer. Igual,
aducimos los estudios realizados, la libertad de cátedra, el respeto a la
diferencia de opinión.
Asumamos que la evaluación es parte de ese
“hacer” del maestro. ¿Qué le pide la institución al respecto? A lo sumo,
explicitar en el programa la forma como se va a evaluar a los alumnos: listado
de acciones evaluativas (examen oral, examen escrito, trabajos en grupo...),
porcentajes en los que estas acciones contribuyen a la nota final. Esto ya es
un ritual; los programas se han vuelto (si no lo eran desde el comienzo)
requisitos formales que sólo se retoman para copiarlos una y otra vez o,
paradójicamente, para “evaluar” al maestro: uno de los puntos por los que tiene
que responder el alumno en el instrumento que le suministran para evaluar a los
docentes es si «entregó o no entregó programa». ¡El programa mismo no importa,
lo importante es la entrega!
Pero, ¿es posible ser objetivo —desde el
punto de vista metodológico— al evaluar? Uno como maestro no puede garantizar
la aplicación sistemática y homogénea de los mismos criterios durante la
calificación de varios trabajos, exámenes o desempeños (es una de las razones
por las cuales las evaluaciones masivas evadieron durante mucho tiempo las
pruebas abiertas: es muy difícil garantizar una calificación confiable). Si uno
califica los ensayos de sus estudiantes, los deja un par de meses y vuelve
luego a calificarlos (por supuesto sin ver la calificación anterior), ¡las
diferencias pueden ser muy grandes! Incluso en una sola faena de calificación,
los criterios cambian a medida que disminuye la pila de ensayos por revisar.
Un par de ejemplos, tomados de una
investigación sobre textos escritos en el aula. En un ejercicio, un grupo de
maestros de lenguaje, que trabajan en el mismo nivel educativo, califica el
texto de un niño… el resultado es que las notas oscilan por casi toda la escala
de calificaciones. Pero, si cada uno dice que evalúa objetivamente, ¿cómo es
posible que obtengan resultados tan distintos?
En otro ejercicio, a un grupo de maestros
le entregan fotocopia del texto original de un niño y, a otro grupo, el mismo
texto, pero transcrito a letra de molde. El promedio de calificaciones del
segundo grupo siempre es más alto que el del primero, siendo que ambos grupos
reconocen que la caligrafía y la puntuación no son los aspectos principales a
evaluar en un texto. O sea, no se aplica el criterio que, sin embargo, se está presto
a enunciar, pues es lo que se espera oír en esos casos.
Entonces, cuando los maestros evaluamos,
también hacemos una autovalidación no problemática de nuestro saber
sobre los métodos. Asunto que se refuerza cuando, además, la evaluación se
hace como cumplimiento formal de las obligaciones. Ahora bien, si los métodos
que un maestro aplica dependen de unas prácticas sociales y no solamente de
unas formas personales, también resulta equívoca la idea de autovalidar ese
saber.
2.5 Autovalidación no
problemática del saber sobre el sujeto
En una de sus investigaciones, Ana
Teberosky pide a maestros del mismo curso escribir un texto como si fueran uno
de los estudiantes que tienen a cargo. El resultado es que se producen muchos
textos con una complejidad pragmática, semántica, sintáctica y ortográfica, que
un estudiante de esa edad no hace; y, por el otro extremo, textos con una serie
de “errores” deliberados —para que parezcan de un estudiante de ese curso— que
un niño de esa edad no comete. La investigadora saca dos conclusiones: no
trabajamos los textos hombro a hombro con los estudiantes, ni investigamos
sobre las particularidades cognitivas de los sujetos con los que trabajamos.
En consecuencia, al evaluar, no sólo se
hace —como en el caso anterior— autovalidación del saber metodológico, sino que
además se hace una autovalidación no problemática de saber docente
sobre el sujeto en formación. Y como este último es un campo de
conocimiento, pues también resulta equívoca la práctica de la autovalidación, ya
que los campos de conocimiento se caracterizan por la confrontación con otros.
2.6 Acuerdo con un modelo
dominante de escuela
La “evaluación objetiva” que los
administradores declaran hacer al funcionamiento del sistema educativo —la
evaluación institucional— involucra el llenado a tiempo de formatos y el
cumplimiento de requisitos formales que no requieren una reflexión sobre el
quehacer educativo; todo bajo el comando de un interés que habla de eficiencia
y eficacia, pero que no quiere discutir sus bases epistemológicas ni dar cuenta
de sus intereses prácticos, ligados al control del sistema educativo.
En conclusión, con el nombre de “evaluación
objetiva”, se pasan unos controles, se pretende autovalidar los saberes, se
legitiman unas relaciones entre lo administrativo y lo académico y, finalmente,
se manifiesta, conscientemente o no, un acuerdo con un modelo dominante
de escuela en el que los fines de la acción se buscan separando la
organización de la ejecución, ordenando a sus miembros de tal manera que haya
superiores que dirigen a subordinados, y considerando la interacción y el
sentido como un ajuste entre fines y medios, atendiendo a parámetros de
eficacia.
2.7 Acuerdo con una idea
dominante de ciencia
¿De dónde provienen los enunciados que
pretenden decir lo que pasa en educación? De muchas partes, pues la educación
es un campo en pugna. Pero, por el hecho de ser una pugna históricamente
situada, sólo unos discursos terminarán volviéndose hegemónicos en ciertos
momentos, no por ser más “verdaderos”, sino por su servicio en las luchas
políticas. Así, la psicología experimental terminó reinando, no sólo en
educación, sino en el mundo entero, como podemos comprobar por la omnipresencia
de las encuestas. Esto fue posible gracias a su decisión de mostrarse como
ciencia, como saber “útil”, a comienzos del siglo XX. En ese momento, la
psicología tomó el camino de los instrumentos y de los resultados
“verificables” a través de la estadística… por supuesto considerando que se
puede:
· concebir el
sujeto desde el punto de vista del comportamiento observable;
· describir el
comportamiento sin especulaciones, en atención a la regularidad de sus
manifestaciones;
· segmentar en
escalas tales manifestaciones.
Con ayuda de estas consideraciones, aplicó
la estadística y se puso a hablar de “medición objetiva” de los asuntos del
sujeto (de ahí el concepto de “psico-metría”). En consecuencia, la llamada
“evaluación objetiva” —en este paradigma psicométrico— concentró la atención en
los asuntos técnicos, con implicaciones como las siguientes: de un lado, como
las matemáticas parecen indiscutiblemente verdaderas (cuando en realidad no
pueden no serlo, dado que son tautológicas), su uso ha operado falsamente como
una prueba de la cientificidad de la psicometría y, particularmente, de la
evaluación que ella distribuye. De otro lado, el énfasis en lo técnico ha
tornado los efectos de la evaluación como implicaciones lógicas y no como
decisiones políticas: ahora creemos que acceder o no al sistema educativo,
ascender o no por sus peldaños, tener o no el saber o el comportamiento
esperado, merecer un premio o un castigo… es solamente asunto de capacidades
personales, medibles, sin la incidencia de procesos político-sociales.
La consistencia lógica nos obnubila de tal
manera que no resulta “visible” el proceso histórico que determinó la llegada
de la psicometría a la escena educativa. No basta con haber mostrado que la
medición del coeficiente intelectual ha servido, desde el comienzo, para
justificar las segregaciones, empezando por la racial. Con todo, aunque no sea
suficiente interrogar los intereses en juego, se puede mostrar cómo se
articulan éstos al manto técnico, neutral; interrogar el estatuto de “dato” que
se le otorga a lo que sale de la aplicación de los instrumentos; y demostrar
que, más que provenir de una “medición” de una realidad externa al instrumento,
los resultados se producen, en gran medida, por el instrumento y
por el sistema de enunciados que lo respalda.
Ahora bien, que los criterios estén
explícitos, de un lado, permite discutirlos (a diferencia de la mayoría de las
posturas, cuyos criterios pueden faltar, estar implícitos, o cambiar al vaivén
de las circunstancias). Y, de otro lado, no implica que, al evaluar, las
autoridades obren en consecuencia con ellos; es más, se puede decir que obran
sistemáticamente contra ellos.
Entonces, desde esta perspectiva, cuando se
habla de “objetividad”, se acuerda con una idea dominante de ciencia,
a saber: la idea positivista de una ciencia que acumula de forma progresiva sus
hallazgos, a saber: el develamiento de los secretos cuantitativos de la
naturaleza (en este caso de la naturaleza humana), y que verifica empíricamente
sus hipótesis, formula leyes y prevé el futuro.
3. Objetividad relativa
Si podemos mostrar que el estudiante es
algo más que comportamiento observable; que el maestro es algo más que el
ejecutor de unas “medidas de mejoramiento” hechas técnicamente por otros a
partir de las evaluaciones; que el conocimiento es algo más que un referente
inamovible bautizado con cifras; que es interrogable la legitimidad de la
importación de la matemática a la psicología; que la educación sobrepasa el
control y la acción gobernada por objetivos explícitos; que nuestra
evaluación —como parte del proceso formativo— es mucho más que medición de la
psiquis… entonces se hace necesario trabajar con una concepción más amplia de
“objetividad”, tal que permita interrogar por los conceptos de conocimiento,
sujeto, educación y formación, y reconocer la posibilidad de promover a la
existencia no otros ideales, sino otras condiciones de posibilidad, a condición
de cualificar nuestra postura, y no de seguirse quejando con el vocabulario
vigente de la política educativa.
3.1 Qué se evalúa
En relación con el objeto de la evaluación,
aquí hablaremos de validez, y entenderemos por tal la relación
entre el objeto de la evaluación —aquello que se evalúa— y la teoría que, a su
vez, explica tal objeto en el campo de las disciplinas, no en el campo
educativo. Una evaluación aumenta o disminuye su validez a medida que ambas
cosas se acercan o se alejan, respectivamente.
Se evalúan, por ejemplo, los logros en
matemáticas; ahora bien, no tienen por qué coincidir el nombre de la disciplina
con el nombre de la asignatura escolar (el cálculo y la trigonometría, por
ejemplo, son parte de las matemáticas, y sin embargo nombran asignaturas
distintas). Pues bien, el grado de validez de una prueba que hagamos en esta
asignatura es proporcional al grado de relación que tengamos con la disciplina
llamada “matemáticas”. Es por eso que el profesor de la asignatura se siente
autorizado para evaluarla: es matemático, licenciado en el área o, al menos, se
ha formado para cierto rango de edad para el que siente que sabe el nivel de
matemáticas que los estudiantes deben aprender.
Entonces, si estudiamos en la universidad o
en la normal y, una vez obtenido su título, nos dedicamos a enseñar y sólo
volvemos a estudiar (repasar) lo necesario para dictar clase, nos vamos
alejando del campo disciplinar. Por supuesto que las condiciones para ser
maestro en nuestro país no exigen más que el repaso y el ejercicio del texto
escolar, pero el efecto es que nuestro saber se hace menos válido, no por ser
menos “verdadero”, sino por carecer de relación con el campo (como un billete
de alta denominación en el desierto). Así, nuestras evaluaciones van perdiendo
validez, aunque —desde luego— permanece su fuerza como instrumento de control,
de autovalidación del maestro, de cumplimiento de funciones, etc.
En el caso de una prueba psicométrica, la
validez tendría que establecerse, como obliga la disciplina, de una manera
razonada. Pero entonces eso se resuelve apelando a los llamados “expertos”, que
están por fuera de la psicometría; es decir, si se trata de evaluar matemáticas
—para seguir con el ejemplo— convocan a una persona reconocida en ese campo,
para que defina lo que debe ser evaluado y le dé consistencia al objeto de
evaluación. Tal salida —llamar al experto— sería preferible si la única
alternativa a ella fuera confiar simplemente en una formación (de postgrado, de
pregrado o de normal) que sólo ha tenido oportunidad de enriquecerse a partir
de la “capacitación” docente disponible (de la que, sin embargo, muy pocos
hablan bien).
Ahora bien, establecer la validez de la
evaluación externa no escapa a la misma condición de cuando la validez queda
autoasignada por (y autoconfiada a) el maestro. Es decir, también el llamado
“experto” tiene una relación específica con la disciplina. Relación que goza de
algún reconocimiento social que proviene de una combinación —en proporciones
variables— de dos tópicos: de un lado, los vínculos, la búsqueda de beneficios
personales y el propósito de imponer o de dejar que se impongan ciertas
políticas; y, de otro lado, algún nivel de saber efectivo en el área.
Entonces, si bien la validez de gran parte
de la evaluación de aula tiene —como hemos dicho— el inconveniente de
retornarle al maestro una autovalidación no problemática de su relación (sea la
que sea) con la disciplina, la evaluación externa, de cara a la educación
escolar, también tiene un inconveniente muy fuerte: pese a la confianza que
pueda depositarse en el experto, ¡son los maestros —no los expertos— los que
continúa haciendo las clases y las evaluaciones de aula!; ¡su saber al respecto
no se va a modificar por los resultados de una prueba… las modificaciones se producen
en el saber por asuntos completamente distintos! Así, no resulta clara la
manera como los procesos de evaluación externa van a poner a todos los maestros
a la altura de las discusiones importantes de las diversas disciplinas. Pero,
¿acaso nosotros mismos, los maestros, no llamamos también a expertos para que
nos enseñen a hacer planes de estudio, para que nos garanticen que a los
estudiantes les vaya bien en las pruebas, para que nos resuelvan los
atolladeros didácticos? Es decir, ese mecanismo para establecer la validez
(llamar expertos) no busca que todos los maestros se vuelvan expertos, sino más
bien que se requiera eternamente de esa división (maestros –vs.– expertos),
mediada por la evaluación.
Obsérvese que es el mismo principio que
regía durante la tecnología educativa: como se partía del principio de que era
imposible hacer de todos los maestros unos expertos como los que diseñaban el
currículo en el MEN, entonces se les daba, al menos, las técnicas para que
—independientemente de su relación con la disciplina— realizaran actividades
que permitieran a los estudiantes aprender. Como se ve, nada de lo estructural
ha cambiado. La concepción de formación que tiene la autoridad educativa sigue
siendo la misma, muy pobre, aunque haya basculado del currículo a la
evaluación.
En conclusión, si la evaluación de aula
expresa finalmente una posición frente a la disciplina, según la cual el
maestro es el que sabe (“evalúo, luego sé”), la evaluación externa a su vez
también expresa una posición frente a la disciplina, según la cual no son los
maestros los que saben, sino los expertos. Por tanto, ninguna de las dos
posturas hace avanzar la educación, pues, de un lado, ninguna de las dos
interroga la relación del maestro con la disciplina... y es él quien ofrece, al
fin y al cabo, la educación; y, de otro lado, ninguna de las dos posturas
interroga esa división del trabajo que eterniza unos roles que no garantizan el
cacareado mejoramiento de la calidad educativa. En el primer caso, la
evaluación no cuestiona al maestro (el cuestionado es el estudiante); y, en el
otro caso, la evaluación resulta más bien dando lugar, de manera general, a
entrenamientos en resolución de instrumentos como los usados en las
evaluaciones externas, con el fin de evadir el cuestionamiento que por
carambola se le hace al maestro (se aplica al estudiante, pero termina
cuestionando al maestro y a la institución).
Las evaluaciones externas se han equiparado
a la “libre competencia” en economía: supuestamente, en esa lucha por
ganar, todos mejorarían. Pero no es cierto, la “libre competencia” nada
mejora por sí misma; en la misma economía —de donde se dice sacar esa idea— se
sabe que el mercado pretendidamente libre se las arregla para corromper la
oferta y la demanda. Tanto es así que, en evaluación, en lugar de
“mejoramiento”, lo que aparece es el intento de adaptación al sistema de
pruebas: los maestros —cuando no las instituciones mismas— empiezan a adiestrar
a los alumnos en el diligenciamiento de pruebas, pululan los institutos que
venden el entrenamiento, las editoriales que ofrecen test para practicar… Esto,
por otra parte, permite hacerse una idea de las posiciones relativas del
experto (que puede preverlo, pero prefiere ganarse el contrato) y del maestro
(que no obstante ser un profesional, se pliega convenientemente a lo que cree
que el otro quiere de él).
Con todo, aunque el experto tenga una
relación con la disciplina (asunto a verificar), la validez no es un juicio de
expertos; es más bien un juicio posible en el campo, independientemente de
quién lo profiera. Si se atiende a los procesos históricos de las disciplinas,
el llamado experto sería alguien —uno más— que puede o no pertenecer en alguna
medida, o que no pertenece, a un campo conceptual, que tendría una posición
determinada en ese campo (donde hay una pugna por el control simbólico). De tal
manera, la validez es, en realidad, una toma de posición —en tiempo y
espacio dados— frente a un campo en pugna. Ciertamente, algunas personas
pueden dar cuenta de algunos debates que le son contemporáneos a la vida de su
disciplina; pero esto no las aísla del trabajo que se ha abierto en cierta
época. Así, ver a otro como experto revela cuán lejos se está de las
problemáticas de la disciplina, o qué tan cerca se está de los propios intereses.
En consecuencia, los llamados “expertos” pueden involucrar en las pruebas
perspectivas excluyentes sobre el mismo objeto, sin que el conjunto de lo
preguntado sea hoy validable bajo una posición epistemológica diferente; pueden
promover “verdades” independientes de las condiciones sociales en que se
producen… todo porque está cubiertos por el manto político de la experticia,
que no tiene obligación de mostrar su vínculo real con el campo.
Es hora, entonces, de desambiguar la
palabra “experto”: es una característica, nombrada en términos prácticos, que
no necesariamente coincide con la experticia del así nombrado; además, dicha
característica no es en realidad un criterio de validez, sino más bien, un
criterio contractual. De esta forma, si la validez es un campo de
problemas en una brecha epistemológica, se pueden elegir supuestos expertos
que no necesariamente tienen una posición en esa “brecha epistemológica”, sino
más bien cierto reconocimiento (en el campo educativo, en el campo político, en
el campo administrativo)… y bien sabemos que el reconocimiento no es
conocimiento, que incluso se le opone. Y también por creer en la idea de los
expertos, digámoslo ahora, aislados (únicos, irrepetibles), se
termina condenando al maestro a la posición de aplicador de lo
que otros elaboran; es decir: para la autoridad educativa, el maestro es
alguien en cuya formación no se confía ni se trabaja y que, por lo tanto, se lo
quiere poner a hacer una labor puntual, mecánica, sin que tenga conocimiento
del proceso global (más o menos la definición del proletario en el comienzo del
capitalismo); que su acción termine —como se soñaba vanamente en la época del
diseño instruccional— haciendo que los estudiantes aprendan, sin que cambie su
propia posición frente al saber.
No en vano, los documentos que arrojan las
evaluaciones masivas vienen en varias versiones, que apuntan a niveles de
saber:
· una de miles
de páginas, con cientos de gráficas, tablas e interminables anexos… esta
versión no la lee nadie; en gran parte la hace el software estadístico;
· otra versión
de muchas menos páginas, a la que le han podado gran parte de esas cosas que
sólo entienden los expertos; esta versión está dirigida a la comunidad
educativa… con todo, la leen muy pocos, aunque es agradable de ojear, pues
tiene colores, un lenguaje cotidiano y muchas recomendaciones;
· otra es la
versión “ejecutiva” para los ministros y los secretarios de educación que no
tienen tiempo para leer —a veces ni siquiera saben leer—. Por eso está hecha en
Power Point y tiene apenas unas cuantas diapositivas.
· Y, por último,
la versión que va dirigida a los medios de comunicación; ésta es la que produce
los efectos de escándalo que conocemos (por ejemplo, los recientes relativos a
los resultados de nuestros estudiantes en las pruebas PISA). Se puede despachar
en menos de tres minutos. Esta es la versión que casi todo el mundo lee, pues
dramatiza los hechos como en las telenovelas y nosotros estamos sedientos de
esas confrontaciones entre buenos y malos, de esas dramatizaciones en las que
hay vencedores y vencidos, en las que se puede identificar al culpable.
Muchos maestros se interesan por asumir su
posición como intelectuales que actúan en el campo educativo; pero sabemos que
las condiciones bajo las cuales se da hoy la educación en el país no le hacen
necesario ponerse a la altura de las discusiones del campo disciplinar en el
que fueron formados (ser ellos mismos “expertos”). La tarea, entonces es
compleja frente a la validez, pues no podría pasarse por alto el
hecho de que las evaluaciones masivas se hacen porque la autoridad educativa desconfía del saber del
maestro, cuya formación ella misma refrenda con su firma y sello en el diploma
expedido por las instituciones formadoras de docentes. O sea: debería
desconfiar de sí misma, pero prefiere apuntar en otra dirección.
3.2 Cómo se evalúa
En relación con la manera de hacer la
evaluación, aquí hablaremos de confiabilidad, y entenderemos por
tal la consistencia metodológica —cómo se evalúa—de la evaluación. Hay muchas
maneras consistentes de evaluar un objeto en el campo educativo; en todos los
casos, para la presente reflexión, consideraremos que ello está íntimamente
relacionado con la pedagogía, con las maneras como el maestro intenta
relacionar al aprendiz con el saber. Por eso, todos los profesores (sin
importar el área) se sienten autorizados a evaluar: son licenciados,
normalistas, o profesionales con “capacitación” pedagógica extra; pueden haber
hecho un postgrado en educación o en pedagogía. En muchos casos, la formación
pedagógica incluye asignaturas relacionadas explícitamente con la evaluación.
La confiabilidad de una evaluación es
proporcional al amarre entre el ejercicio evaluativo y el proceso pedagógico.
Así entendida, la evaluación no tiene que estar expresa (todo el tiempo le
tomamos el pulso a nuestros enunciados y a los de los demás), ni es separable
de la relación pedagógica. De tal forma, la confiabilidad dependería de la
relación particular que el docente tenga con el campo pedagógico, en general;
es decir, con el conjunto de las discusiones que se llevan a cabo entre los que
tienen como objeto de su comprensión el asunto de la enseñanza. Campo que gana
especificidad en la medida en que la educación escolar no es simplemente una
“transmisión” de las disciplinas teóricas, sino un “traslado”: una selección,
que se ha operado sobre un saber, se introduce en un nuevo contexto donde
juegan asuntos específicos, que no aparecen en el contexto de las disciplinas,
tales como la edad de los aprendices, la oportunidad de las enseñanzas, los
contextos en que éstas se imparten, los problemas de comportamiento, la
enseñabilidad de los saberes, los asuntos de la evaluación y la promoción, las
normativas que rigen el sistema educativo, los intereses propios de los
estudiantes a medida que van creciendo, los propósitos educativos de un país,
etc. Y, acerca de todos estos aspectos, el maestro también se supone que se
educó; es parte de su formación como profesional de la educación.
Pero, en muchos casos, no vamos más allá de
los estudios pedagógicos realizados durante la formación profesional como
educadores. Como dijimos para el caso del saber disciplinar, en nuestro país,
las condiciones para ser maestro en la mayoría de los casos no exigen más, no
hacen que se necesite estar en debate con el campo pedagógico. Es decir, sobre
este punto, no tenemos mucho más que el saber —explícito o no— que los maestros
obtuvieron durante su formación y lo que obtienen como efecto de su práctica y
de los niveles de reflexión sobre ella. Las discusiones propias del campo
pedagógico han quedado restringidas a lo que suponemos que ocurre para otorgar
premios (como el premio Compartir al maestro) o asignar incentivos (como en las
convocatorias del IDEP). Algo intentó aportar la FECODE en este sentido, cuando
creó el Centro de Estudios e Investigaciones Docentes (CEID); pero terminó
alineado con los asuntos gremiales (que tienen toda su legitimidad en el campo
respectivo), lo que no ha permitido hacer una contribución decisiva para que
los maestros se pongan a la altura de las discusiones del campo pedagógico.
En el caso de la psicometría, la
confiabilidad se busca de una manera razonada. Pero mientras en el
establecimiento de la validez —como hemos explicado— se brinca fuera del campo
mismo de la psicometría al de los expertos en las áreas, para establecer la
confiabilidad se apela a la estadística, que es el método de dicha disciplina.
Ya no es asunto de quienes conocen las áreas; ya no se piensa que haya una
pedagogía específica para cada área (y, quizás, una evaluación concomitante),
sino que habría una manera “objetiva” —la dada por la estadística— para evaluar
cualquier tema, a cualquier grupo, en cualquier momento, en cualquier parte. De
ahí su aire de cientificidad: a prueba de sujeto, a prueba de contexto, a
prueba de historia… pero de ahí también su peligro. Ese para-todo que se le
supone, sin embargo, no pertenece a la estadística. Perfectamente, podría
utilizársela para caracterizar la heterogeneidad y no para producir una imagen
de homogeneidad que está, como prejuicio, desde el comienzo.
Para determinar la confiabilidad, entonces,
las evaluaciones externas reducen el número de “expertos” a uno: una sola
disciplina define si lo evaluado configura —sobre datos empíricos: las
respuestas de los evaluados— un objeto, si la prueba es replicable, si permite
discriminar niveles de acceso al conocimiento del objeto de que se trate; en
pocas palabras, si mide rigurosamente lo que promete medir. Así, por ejemplo,
los niveles de dificultad que el experto de la disciplina cree que tienen las
preguntas, puede no coincidir con la dificultad materializada por la población
que responde; y es ésta la que se tendrá en cuenta, no la primera (es decir,
modelo matemático mata experto). De tal manera, si unos resultados no ajustan,
se duda de la aplicación del instrumento (por ejemplo, que en unos casos se
hubieran dado más o mejores instrucciones); se duda de la consistencia del
objeto a evaluar establecido para la prueba; se duda de la manipulación humana
de la información... pero rara vez se duda del modelo. De esta forma, los
psicómetras han validado instrumentos gracias a los modelos matemáticos, no a
la validez del objeto.
Este criterio psicométrico parece
preferible al de quedarse simplemente en la formación pedagógica que la
profesionalización le dio al maestro (que, de entrada está puesta en duda),
complementada o descompletada por una reflexión no confrontada con otros sobre
la experiencia y, de vez en cuando, tocada por la llamada “capacitación” (de la
que, insistimos, nadie habla a favor). Pero, si bien el maestro considera, por
sí mismo, “confiables” sus evaluaciones (lo que revela su escasa relación con
el campo pedagógico), considerar que la confiabilidad sería otorgada por la
estadística es también una posición, tan precaria como la otra, frente al campo
pedagógico. Es decir, también el estadígrafo tiene una relación con dicho
campo, pero no como efecto de un trabajo, de un reconocimiento de los pares
educadores, sino a partir de una legitimación política que lo exime de estudiar
los asuntos de la pedagogía. Por eso los oímos diciendo ligerezas, como esa —ya
comentada— de que la libre competencia produce el mejoramiento de la calidad
educativa, o como esa de que las evaluaciones masivas algo mueven en la
institución.
La elección de la estadística, la
utilización que de ella se hace, ha provenido más de la necesidad de imponer
ciertas políticas, que de la discusión propia de los maestros a propósito de
sus prácticas. Por supuesto que ello no es “culpa” de la estadística, la cual
tiene un objeto abstracto-formal para el que los datos provenientes de la
escuela no tienen más relevancia que los provenientes de cualquier otra fuente.
Y por supuesto que la evaluación no está en este campo, sino en el campo de la
decisión, que es político. No se decide con base en las características
conceptuales del discurso que se toma como medio de legitimación. Así, la
psicometría no conquistó el campo educativo por ser objetiva, sino por ser un
discurso adaptable a la aplicación de cierta política educativa. No olvidemos que
entre la primera y la segunda guerra mundial, los modelos teóricos de la
psicología, desarrollados por Alemania y Estados Unidos, fueron muy distintos.
Nosotros terminamos cubiertos por el modelo que se impuso en USA, debido a las
relaciones políticas y económicas que tenemos con ese país, no debido a las
bondades epistemológicas de la psicología experimental.
Obsérvese que, si bien no era poco el poder
que tenían los expertos convocados para establecer la validez, el poder del
experto convocado para garantizar la confiabilidad es enorme: no hay sino una
opción, no hay discusión posible.
Entonces, si bien la confiabilidad de la
evaluación de aula puede tener el inconveniente de retornarle al maestro una
autovalidación no problemática de su relación (sea la que sea) con el campo
pedagógico, la manera de buscarse la confiabilidad en la evaluación externa
también tiene un inconveniente: pese a que la estadística sea una disciplina
seria, dejar en sus manos la “exactitud” de la pedagogía no necesariamente cambia
la práctica cotidiana del aula; de tal manera no se ve el camino para hacer que
los maestros mejoren su práctica pedagógica y que sean mejores evaluadores. La
evaluación psicométrica, atravesada por la estadística, se hace pasar por
“confiable” en tanto práctica ideal de evaluación; es decir,
que si los evaluadores pudieran sugerir la mejor manera de evaluar en el aula,
ésta sería la evaluación psicométrica. ¡Y no son pocos los maestros que, a
partir de las evaluaciones masivas, ahora evalúan con test de múltiples opciones
y única respuesta verdadera… algo bastante lejano a algunas maneras posibles de
enseñar a los estudiantes. Y es que el encuentro educativo es
impredecible y se va desvirtuando a medida que se lo trata de hacer coincidir
con un ideal.
A través de la evaluación masiva, se
pretende mejorar las prácticas de los maestros; pero no es claro que una
evaluación como la psicométrica pueda poner a todos los maestros a la altura de
las discusiones pedagógicas (incluyendo los asuntos de las posibilidades de la
psicometría en educación). Al contrario, se ve que nos resignamos a no poder
entender los misterios de esa “caja negra” que produce los resultados de los
que sí debemos ocuparnos, mediante las medidas de mejoramiento. Si, a propósito
de las evaluaciones nos reunimos a discutir los asuntos metodológicos, queda
claro que alguien tiene que tomar la iniciativa desde otro lugar, con lo que la
evaluación se revela sólo como un pretexto… bastante costoso, valga la pena
decirlo. Y si, debido a la falta de formación epistemológica y pedagógica de
los evaluadores profesionales, vienen a decirnos que este pretexto —la
evaluación— tiene la fuerza suficiente para poner a los maestros a pensar sobre
estas cosas… pues eso resulta halagador para ellos, pero resulta triste para nosotros,
pues estaríamos delante de un caso típico de motivación: estudiamos por el
premio, o por el temor del castigo. El problema es que ninguno de las dos
actitudes se puede situar a la base de una transformación cognitiva.
De tal forma, si la evaluación de aula
puede expresar una posición frente a la campo pedagógico, según la cual el
maestro es el que sabe evaluar (“soy maestro, luego evalúo bien”), la
evaluación externa, a su vez, expresa una posición frente a la pedagogía, según
la cual la metodología estadística (no los maestros), es la única que garantiza
evaluaciones objetivas; es más: unos programas de computador, son los garantes
de que una práctica pedagógica evaluativa supuestamente esté desprovista de
subjetividad. Como se ve, ninguna de las dos hace avanzar la educación, pues,
de un lado, ambas dejan intacta la relación de los maestros con la pedagogía;
y, de otro lado, ninguna de las dos interroga la posición del estadígrafo
frente a la educación. En el caso del maestro, la evaluación que él practica
puede no cuestionarlo mucho (el más cuestionado es, de nuevo, el estudiante);
y, en el caso de la evaluación externa (también usada para cuestionar al
maestro y a la institución), termina produciéndose —como hemos dicho— una
actitud de adaptación, de búsqueda de resultados, sin importar los medios.
Esto, de otra parte, revela algo sobre las posiciones relativas del estadígrafo
(que sumisamente da por hecho su lugar de árbitro frente a un campo tan
complejo, como si así mismo resolviera los asuntos conceptuales en su campo
disciplinar) y del maestro (que termina inclinado ante la supuesta evidencia de
los resultados, volcado como un trabajador supernumerario a su tarea del
momento, abdicando de su estatuto de trabajador liberal, intelectual, que decide).
Entonces, si el estadígrafo tiene una
relación lejana con el campo pedagógico (en realidad es la política la que lo
ha acercado a la educación), la confiabilidad no puede ser tomada
exclusivamente como una decisión numérica. No es así como se ha ido produciendo
la escuela a través de la historia; el estadígrafo en realidad sólo es alguien
que pertenece a un campo de trabajo disciplinar que apenas hace un siglo entró
en relación con la educación escolar y que, en nuestro país, sólo hace unos
años (desde 1991) que tiene funciones tan determinantes; pero eso no le da a su
posición más legitimidad que a otras.
De tal manera, la confiabilidad de la
evaluación escolar también es una posición histórica, restringida a la escuela.
Lo que puede decirse desde las aproximaciones estadísticas es un conjunto de
información que no escapa (como quiere hacerlo ver la idea de “objetividad”) a
la ubicación histórica, política y social. Puede afirmarse que la
confiabilidad pertenece a un conjunto de problemas en un campo pedagógico.
Por eso pueden operar allí técnicos en medidas psicológicas, pero que no tienen
otra posición en el campo pedagógico. Por haber impuesto la idea de
“objetividad” de las evaluaciones, se piensa a los técnicos aislados de
los problemas de la escuela, pero no como un inconveniente, sino más bien como
una ventaja: supuestamente llegarían sin los problemas propios de la
institución, incluso sin el conocimiento de la institución escolar, pues su
carácter “técnico” les permitiría supuestamente ir más allá de lo perceptible
desde la escuela misma. Se le pide al maestro colaborar con el proceso, hacer
como hace la evaluación externa, pues se lo considera “subjetivo” para hacer
evaluaciones; por eso se prefiere el juicio externo al juicio del maestro. No se
confía en el saber pedagógico del maestro, ni importa lo que haya podido
construir al respecto. Por eso le viene muy bien la posición de espera de los
resultados, para realizar labores de mejoramiento; como se ve, se trata de una
iniciativa venida del exterior, no nacida de su propia práctica; por supuesto
que impacta la práctica, pero en dirección a una lamentable pragmática.
Con todo, una posición razonada frente a
esta ubicación histórica de la práctica pedagógica puede asignarle un papel
preciso a la estadística (no justamente el de regente), que contribuya en el
proceso integral de comprensión, para lo cual ese papel ha de estar subordinado
a una perspectiva de toda la escuela y no al contrario. Insistimos: la
estadística puede ayudar a caracterizar la heterogeneidad, pero no la
psicometría, pues no es un campo disciplinar, sino un campo de aplicación al
servicio de la política.
Frente a la confiabilidad de la evaluación,
nos parece que desconfiar de los maestros sólo parece conducir a lo peor.
Sabemos que muchos ya asumen su posición como intelectuales que debaten en el
campo pedagógico, pero no son la mayoría. Nos parece necesario crear
condiciones de relación con la escuela y con la sociedad tales que sea deseable
para el maestro ponerse a la altura de las discusiones pedagógicas. Y las
evaluaciones masivas ni lo quieren ni lo pueden hacer. Pero la evaluación de
aula tampoco lleva necesariamente a eso.
3.3 A quién se evalúa
En relación con la población a la que se le
aplica la evaluación, aquí hablaremos de pertinencia, y
entenderemos por tal el ajuste entre la prueba y la población a la cual se
aplica —a quién se evalúa—. Una evaluación es pertinente si configura un
destinatario tal como aquel público empírico que va a intentar resolver el
desafío. Los estudiantes que tengo al frente tienen que sentir que el asunto
les compete, así les parezca muy fácil o muy difícil, así les vaya mal o bien,
así se pongan nerviosos. En ese margen entran, en un extremo, el desafío que va
un poco más allá de lo que el sujeto puede, pero que se apuesta a que con los
elementos que tiene se sentirá desafiado a tratar de responder; y, en el otro
extremo, la idea de trazar una “línea base”, un mínimo que todos conocen.
Esto lo puede calcular el maestro sobre la
base de su trabajo con los estudiantes, si está pendiente de sus niveles de
creencia, de sus niveles de elaboración, si siente su labor como la creación de
un contexto de relación con el otro que desafía sus capacidades para tratar de
resolver lo retos cognitivos.
Por su parte, la psicometría tiene
elementos para calcular, sobre la base de las respuestas, si los estudiantes
tomaron el reto como propio, si los niveles de dificultad están acordes con la
población. Sin embargo, hay un nivel un poco más abstracto —digamos— que me
interesa considerar: la distribución de la información, acerca del objeto de
evaluación, a la población a quien se aplica la prueba. Por ejemplo, las
autoridades educativas piensan que si hay unos referentes idénticos —currículo
común, lineamientos, indicadores, logros, estándares, etc.— entonces todos los
estudiantes estarían en igualdad de condiciones y se los podría evaluar.
Evidentemente, se cuenta con que el sistema educativo (generalmente de manera
explícita, mediante normas) ha establecido previamente unos objetivos, así como
claros indicadores para saber la proporción en que esos objetivos se cumplen;
la medición de los resultados, de los logros, se da por la mensurabilidad
supuestamente inherente al comportamiento; de paso, se supone también que la
actividad, por ejemplo la acción de un maestro, está fuertemente regida por los
objetivos establecidos previamente.
Es decir, se evalúa la población en la
medida en que tiene algo en relación con lo cual puede considerarse homogénea;
de lo contrario, no se puede evaluar a todos con el mismo instrumento. No en
vano, en el caso colombiano, los programas ministeriales que traían los
objetivos, los contenidos y las actividades, siempre incluían también los
“indicadores de evaluación”; no sólo se suponía que todos los niños del país,
independientemente de las características de los maestros (una ciencia a prueba
de sujeto, una educación a prueba de maestro) recibían la misma instrucción,
sino que tenían que ser evaluados de manera semejante, supongo que en la medida
en que a cada contenido le corresponden unas formas privilegiadas de
evaluación.
Hoy en día, son los estándares y los
indicadores de logro los que permiten afirmar a las autoridades educativas que
los estudiantes pueden ser evaluados con las pruebas masivas tipo SABER, PISA,
TIMMS, etc. Es decir, un criterio psicométrico preciso es el que prohíbe hacer
evaluaciones idénticas a poblaciones heterogéneas en relación con su acceso al
objeto de evaluación en cuestión (atención, porque una prueba pertinente no
excluye que la población sea heterogénea en relación con otros tópicos). En
nuestro caso, la homogeneidad de los estudiantes estaría dada por el hecho de
pertenecer a los mismos cursos y, por esa misma razón, de haber recibido
supuestamente idéntica educación, ya que todos los profesores tendrían que
haberse regido por los mismos parámetros.
¡Qué diferencia entre lo que sucede en
clase y lo que presupone la psicometría! Parece como si en el aula la
pertinencia fuera objeto de construcción, mientras que para las evaluaciones
externas fuera un objeto presupuesto, sobre la base de consideraciones
procedimentales tan gruesas que llegan a la torpeza de creer que la realidad obedece
a nuestros propósitos. Sin embargo, las políticas, las decisiones
ministeriales, los propósitos educativos… sufren innumerables transformaciones
a medida que van aterrizando en las condiciones específicas. Desde las vías
mismas de comunicación oficial hasta la manera como se entienden las cosas en
sitio y lugar, introducen una enorme entropía. El gobierno, que aplica pruebas
masivas presuponiendo la homogeneidad de la población, sabe que sus políticas,
al cabo de los años, a veces ni se conocen y, donde se conocen, han sufrido
todo tipo de adaptación, incomprensión, desdén, empobrecimiento, etc. Recuerdo,
por ejemplo, la investigación que hizo el mismo MEN para saber qué tanto se
conocía la Renovación Curricular. Los resultados fueron tan negativos, que ni
siquiera los publicó.
Si algo ha impedido que los medios (radio,
cine, TV, computadores) reemplacen a los maestros, es la heterogeneidad de los
estudiantes, producida, entre otras cosas, por la heterogeneidad de contextos
en que es impartida la educación (a lo cual debería agregarse la heterogeneidad
de la formación de los maestros). La creencia en la homogeneidad produjo en su
momento la ilusión de que los medios, uno a uno, iban a permitir un cubrimiento
total y uniforme de la educación; no obstante, pese a que la cantidad y la
velocidad de información es cada vez mayor, sigue habiendo un “obstáculo”
insalvable: el proceso específico mediante el cual cada uno aprende en el
contexto de la interacción con los otros (que no es únicamente de colaboración o
de comunicación, sino principalmente de desafío, oposición, etc.).
En otras palabras, quienes determinan los
procesos de evaluación externa dan por hecho (difícil es decir que lo creen)
que la población es homogénea, y por eso la evalúan; para ello, hacen una
abstracción de ciertas diferencias, procedimiento que, si bien tiene su
aplicación eficaz en ciertos campos, es bastante discutible que en educación
sea más útil que otro tipo de investigación. Por su parte, el estadígrafo no
constata si la condición está cumplida (bastaría con que abriera los ojos para
que se diera cuenta que no es así), sino que acepta el dictamen del político al
que sirve, al cual le conviene decir que si hay unos estándares y si los
maestros están obligados a que los estudiantes los logren, pues ya está dada la
condición necesaria para evaluar de forma pertinente.
Ahora bien, un país puede tener como ideal
una educación de calidad para todos sus habitantes. Pues bien, es necesario
trabajar para ganar las condiciones de posibilidad de semejante panorama, pues
de hecho no están dadas. No se necesita investigar demasiado para enterarse de
que eso es así: tenemos una historia de desarrollo desigual de regiones, zonas
de conflicto, estratificación económica que no les da de entrada las mismas
condiciones a todos los estudiantes. ¿Es pertinente evaluar antes de reducir
estas desigualdades? ¿No es previsible que se van a encontrar diferencias de
desempeño atadas a estas desigualdades sociales? Y, por supuesto: los menores
puntajes en las evaluaciones masivas, en Colombia, se tienden a encontrar —en
todas las aplicaciones, si excepción— en las poblaciones pobres, en las que
viven en los márgenes de la metrópoli y en las zonas de conflicto. Y, sin
embargo, se sigue evaluando… No parece tanto una evaluación impertinente, como
una evaluación desleal. Los administradores de la educación han evaluado a
la población equivocada. Y, bien pensado, estamos ante el mismo fenómeno
de apuntalar “científicamente” la segregación racial: los económicamente deprimidos,
los marginados, las víctimas del conflicto resultan ser —en la jerga de hoy—
“incompetentes” o, al menos, “poco competentes”. Ante semejante hallazgo, no
parece necesario trabajar por la equidad social, sino por el ajuste pedagógico.
De otro lado, en el campo de la educación
escolar se han invertido muchos esfuerzos, desde varias posturas teóricas, en
construir etapas de desarrollo cognitivo en relación con los distintos saberes
que se dispensan en la escuela, lo cual daría la base para postular una de las
condiciones de la evaluación, que, no obstante, no riñe con la homogeneidad
exigida. Se trata de que estudiantes “iguales” (en capacidades y en
información) se pueden diferenciar en términos de sus desempeños. Y ese es el
criterio para distribuirlos en la escala que va de buenos a malos. No obstante,
hay tal diversidad de posturas frente a esto de los niveles de desarrollo
cognitivo, que en este momento la psicometría serviría más para acompañar estas
búsquedas que para hacer afirmaciones taxativas sobre la educación; es decir,
el hecho de ser masivas permite entender que tales evaluaciones dan por sentado
que ya las etapas de desarrollo están plenamente acordadas, cuando en realidad
hay desarrollos muy desiguales, según los objetos de conocimiento y, aún en los
que más han avanzado, se reconocen alcances todavía muy precarios o muy
generales como para justificar el tipo de mediciones que se realizan en
educación. Insistimos: las evaluaciones masivas, en este contexto, no están
autorizadas en una homogeneidad, pero podrían servir para buscar en esa
dirección, reconociendo los límites de tales búsquedas.
Vista de esta forma, la “pertinencia” es
una toma de posición que compromete el conocimiento sobre dos aspectos: de un
lado, el aprendizaje de los estudiantes; y, de otro, sobre el país en el que
están nuestras escuelas y el país que estamos construyendo —a escala de lo que
nos corresponde— con la educación que estamos dispensando. Si los maestros
mismos consideran homogéneos a sus estudiantes, eso tiene consecuencias en la
conformación de la comunidad educativa, pues fundamenta ciertos tipos de
interacción con los estudiantes, con los colegas y con los padres de familia.
Y, si los consideran heterogéneos, habría que estudiar qué es lo que se está
haciendo con esas diferencias.
Por su parte, la posición asumida por las
evaluaciones externas implica, según se deduce de lo que a propósito de ellas
ha sido enunciado de forma explícita por las instancias administrativas, que
los actores de la educación no saben sobre sus estudiantes, no saben qué
acciones emprender, ni cómo conducir la institución educativa; entonces, por
estas razones, deberían supuestamente someterse a las evaluaciones, esperar sus
resultados y ahí sí usar la única información que se considera objetiva —y, por
lo tanto, útil— para acometer la labor educativa. Esta posición, por supuesto,
conduce a que se produzca cierto tipo de relaciones, ninguna de las cuales
parece apuntar a lo que llaman “mejoramiento de la calidad”.
De nuevo, como en los otros casos, se trata
de una toma de posición histórica.
4. A manera de conclusión
Algunas de las conclusiones posibles tienen que ver
con los efectos, con las implicaciones y con las condiciones de posibilidad.
4.1 Los efectos
No nos preguntamos “para qué evaluar”, pues como
estamos en el campo educativo, se presenta la tentación de responder con los
buenos propósitos; “para mejorar la calidad”, por ejemplo, sería una de las
respuestas esperables. Tomar el asunto por el lado de los efectos luce más
interesante como posibilidad de investigación, pues cabe la pregunta por el
cómo se producen tales efectos. Nos referimos principalmente a dos:
De un lado, la reproducción de los roles, sin
necesidad de hacerse preguntas comprometedoras sobre el saber, sobre la
pedagogía, sobre el sujeto, sobre el país que estamos construyendo. Es evidente
el rendimiento político que esto tiene para la reproducción de la sociedad.
Y, de otro lado, la invisibilización de
determinados procesos que hacen posible que ciertos saberes/maneras de
enseñar/maneras de hacer educación hayan ganado —o que pierdan— un lugar en la
escuela.
4.2 Las implicaciones
La autoridad educativa concibe que el maestro debería estar
mejor formado en las dimensiones disciplinar, pedagógica y política; que las
instituciones formadoras de docentes tienen que formar rigurosamente (en esas
mismas dimensiones); y que la evaluación externa aporta sustancialmente al
campo educativo. Pero,
· promueve la competencia
desleal, el “sálvese quien pueda” de las pruebas masivas, el atajo para aprobar
las evaluaciones externas, toda vez que ellas se convierten en la manera de
medir el trabajo docente… lo cual no apunta al saber del maestro, a las
condiciones en las cuales sea necesario para él estar cada vez más a la altura
de los debates disciplinares y pedagógicos, en función de la lógica de
inserción de los sujetos en tales debates.
· desestimula a las
instituciones formadoras de docentes, prácticamente les congela el presupuesto,
violenta los procesos propios de cada una y promueve procesos de acreditación
con características tales que igualmente dan lugar a los atajos… lo cual le
impide mejorar la formación de los docentes.
· entroniza mediante leyes
las evaluaciones psicométricas, y las amplía a todo el espectro de la educación
(desde el preescolar hasta las carreras universitarias)… lo cual le impide
producir las condiciones que considera necesarias, pues desvirtúa el saber
construido de manera singular por cada maestro, desvaloriza completamente su
juicio evaluativo y reduce su dimensión política a la obediencia.
· impide el debate conceptual
sobre las pruebas (los puentes entre la estadística y la psicometría, las
decisiones no matemáticas, no matematizables, que es necesario tomar a lo largo
de las evaluaciones masivas)… lo cual somete a la comunidad educativa a la dictadura
del software estadístico (que manejan muy pocas personas) y de los datos (que
hay que mantener en secreto, como condición de la evaluación).
4.3 Las condiciones de
posibilidad
Los asuntos sociales no se transforman mediante
propósitos. Aunque es necesario tener propósitos para transformarlos. Esta
paradoja implica que mientras los propósitos estén más cercanos a las
condiciones de posibilidad (las existentes y las que podemos crear*), menos se
tratará de idealizaciones que impiden actuar. En esa dirección, preguntamos en
qué medida los participantes de la educación estamos dispuestos a subordinar
nuestros intereses al propósito formativo (que se supone que también es el
nuestro) para poder interrogar la forma como las evaluaciones masivas nos interpelan
y las respuestas que damos. Igualmente preguntamos por qué es tan difícil vivir
hoy el espacio educativo, de la manera como quisiéramos que fuera el día de
mañana, con lo que evitamos el tono de las reflexiones educativas que,
centrándose en un deber-ser o concluyendo con uno, idealizan el fin, de forma
tal que terminan subvalorando el hacer cotidiano en la escuela, donde no
obstante se juega gran parte de nuestra vida. Y, finalmente, nos preguntamos
por los rendimientos individuales y sociales de trabajar con la
heterogeneidad de los sujetos, de empujarla hacia la especificidad o hacia el
“todos iguales” (por ejemplo para poderlos evaluarlos).
Nota:
* Pues la segunda tesis de Marx sobre Feuerbach no
ha dejado de estar vigente: «La teoría materialista de que los hombres son
producto de las circunstancias y de la educación, y de que por tanto, los
hombres modificados son producto de circunstancias distintas y de una educación
modificada, olvida que son los hombres, precisamente, los que hacen que cambien
las circunstancias y que el propio educador necesita ser educado».