jueves, 12 de septiembre de 2013

Sobre la “objetividad” de la evaluación

Sobre la “objetividad” de la evaluación

Guillermo Bustamante Zamudio
Universidad Pedagógica Nacional

¿Qué es entonces la verdad? Una hueste en movimiento de metáforas, metonimias, antropomorfismos, en resumidas cuentas, una suma de relaciones humanas que han sido realzadas, extrapoladas y adornadas poética y retóricamente y que, después de un prolongado uso, un pueblo considera firmes, canónicas y vinculantes; las verdades son ilusiones de las que se ha olvidado que lo son; metáforas que se han vuelto gastadas y sin fuerza sensible, monedas que han perdido su troquelado y no son ahora ya consideradas como monedas, sino como metal.

Friedrich Nietzsche


1. ¿Todos del mismo lado?

De una u otra manera, alrededor de la escuela todos hablamos de, o pretendemos una, evaluación “objetiva”:

         ·            los maestros decimos que evaluamos objetivamente, es decir, que evaluamos bien;
         ·            los estudiantes piden ser evaluados objetivamente, es decir, de manera equitativa;
         ·            los padres sancionan o premian a sus hijos, basados en las evaluaciones que se les practican y confiando en que sean objetivas, es decir, que revelan realmente el esfuerzo de sus hijos;
         ·            el sindicato de maestros exige que la evaluación a los docentes sea objetiva, es decir, que no sirva para sancionarlos ni para frenar los ascensos en el escalafón;
         ·            los evaluadores profesionales sostienen que sus pruebas (SABER, PISA, TIMMS, PIRLS, etc.) son objetivas, es decir, que están estandarizadas mediante procedimientos matemáticos;
         ·            el Ministerio de Educación Nacional ordena que los maestros hagan una evaluación objetiva, es decir, teniendo en cuenta todos los aspectos posibles, con tal de que no haya repitencia y, por consiguiente, que aumente la eficiencia interna del sistema;
         ·            las instancias que rigen la educación pregonan que la evaluación institucional, es objetiva, es decir, sin sesgos, gracias a que consiste en el llenado de una serie de formatos;
         ·            los organismos internacionales exigen evaluaciones objetivas, es decir, psicométricas, como condición para garantizar que los préstamos que otorgan para educación se usen de buena manera y no con base en decisiones antojadizas que van en detrimento del tesoro público;
         ·            etc.

¡Todos usamos la misma palabra: “objetividad”! Pero, ¿eso indica que tenemos un acervo común, que estamos entendiendo lo mismo? No parece ser, pues significa: buena factura, equidad, un indicador, una manera de mantener el fuero, estandarización, eficiencia interna, diligenciamiento de formatos, ajuste fiscal. Entonces, parece tratarse, más bien, de un amplio espacio donde no sólo se dirime toda clase de intereses sociales y políticos, sino también concepciones educativas muy diversas e, incluso, posiciones distintas sobre la totalidad de la experiencia humana. De manera que si bien parecen hablar de lo mismo, no hablan de lo mismo. Esta es —según Pierre Bourdieu— una de las formas de reproducción del sistema social, que cuenta con la complicidad de todos.
Ahora bien, en ese amplio espacio parecen identificarse dos modalidades de inserción, según se expliciten o no los fundamentos desde los que se habla de evaluación objetiva:

      ·            La primera modalidad no necesita explicitar sus fundamentos, dado el lugar que se auto-adjudica (con cierto apoyo en ideas sociales). Es por eso que, conminada a explicitarlos, tal vez no sepa cómo hacerlo, pues esa práctica teórica no es condición de la posición en la que se sitúa, que más bien alude —no interesa aquí si con razón o no— de manera vaga al campo de los derechos.
      ·            La segunda modalidad explicita sus fundamentos porque se relaciona con un tipo de práctica —la teórica— que sí le exige hacerlo. De manera que no es superior a la otra, sino diferente; aunque, a la hora de implementar las evaluaciones masivas, esta diferencia se va a usar contra la primera posición, la cual, por su especificidad, no suele oponerle algo consistente, sino más bien adaptación.

En el primer caso, padres, estudiantes, maestros y administrativos tienen distintos niveles de creencia sobre la evaluación objetiva y, sobre todo, distintos intereses al respecto. Y como esos intereses (muchas veces poco confesables) en su mayoría no son teóricos, una manera de sostenerlos es no someterlos a discusiones racionales. Cada uno quiere mantener (o “mejorar”) su ángulo de relación con la educación, cualquiera sea, no importa. Desde esa perspectiva, no hace falta asumir el riesgo de ser movido, de tener que pensar de otra manera. Así se sepa o no, es innegable la ventaja que esto representa para la reproducción de las condiciones sociales. Ahora bien, en esta posición se puede —y se suele— hablar de transformar la sociedad, pero generalmente en la medida en que eso garantice la permanencia del interés propio, lo que, de hecho, mantiene las condiciones sociales.
Y, en el segundo caso, la psicología experimental tiene una definición explícita de “evaluación objetiva”, enmarcada en un entramado categorial propio, susceptible de ser debatido en el campo teórico. Esta perspectiva se reputa mejor por el hecho de ser teórica, y muchas veces deja a la otra en silencio (con la opción de la adaptación y su concomitante queja improductiva) por no poder responder al mismo nivel. Sin embargo, la aplicación de esta perspectiva ¡no ha rendido todos los frutos que promete! Pero no decimos esto con la esperanza de que, introduciendo unos correctivos (como que la evaluación no sea sanción, o que la evaluación sea formativa, etc.), entonces sí va a poder rendir tales frutos. Es que está estructuralmente impedida de hacerlo. De hecho, se puede decir que las cosas siguen más o menos igual en educación; los efectos perversos que ha introducido la evaluación masiva no podemos achacárselos en su totalidad a esta perspectiva, dado que se necesita quién los imagine y los ejecute, asunto que recae sobre todos los que tenemos que ver con la educación.
Pero, ¿por qué una perspectiva racional de evaluación no ha funcionado? ¿Será entonces que la educación no se juega toda del lado de los argumentos teóricos? Desde Clemente de Alejandría (siglo II) ya se sospecha que se trata de una práctica, es decir, algo distinto de la exposición y revelación de la verdad. Se nos ha olvidado que la educación funcionaba (bien o mal… como siempre) antes de introducir la psicología experimental en el campo educativo. ¿Cómo hacía para funcionar, para producir sus efectos (como, por ejemplo, educar a los que se inventaron la psicología experimental), en ausencia de esa supuesta panacea de las evaluaciones masivas?
Estas preguntas nos permitirán indagar también hasta dónde y cómo ha entrado a la educación el discurso de la psicología experimental: ¿no ha sido, más bien, una forma particular de recontextualización de la matemática, al servicio de ciertos intereses? En tal caso, habría que caracterizar dicha recontextualización, pues el hecho de mencionar la estadística no quiere decir que se respete su gramática; no olvidemos que las evaluaciones masivas no se hacen en el campo disciplinar de la matemática, sino en el campo político de las decisiones sobre educación.
Así las cosas, las numerosas posturas frente a la “evaluación objetiva” que listábamos al comienzo vuelven a conformar un solo paquete de intereses variados, que usan a discreción, cuando les conviene, adaptaciones de ciertos discursos teóricos. Ante esta situación —diversos intereses, niveles de explicitación y de elaboración—, todo el mundo puede pasar de agache; incluso denunciándose los unos a los otros, pero, eso sí, sin interrogar su propio lugar. Al final, las políticas educativas de cualesquier características se imponen, gracias a los actos de cada uno de los agentes educativos, de nosotros, así nuestros enunciados sean la denuncia, la demanda, la crítica. Y lo que llamamos “investigación educativa” puede estar perfectamente al servicio de esa confusión, de una u otra de las tensiones que se presentan en su seno. Pero, al final, no produce condiciones de posibilidad para algo distinto, aunque —paradójicamen­te— algunas de sus banderas sean la “innovación” y la “transformación”.
¿Destino ineluctable? No necesariamente:
De un lado, es posible diferenciar entre el acto formativo y los pequeños y mezquinos intereses personales. El acto formativo no ha necesitado ser esclarecido para funcionar, de manera que hasta dónde es necesario avanzar en la comprensión para que funcione o, más bien, para entender cómo funciona. Y, por su parte, los pequeños y mezquinos intereses personales, que encarnan de manera singular intereses sociales, no tienen por qué desaparecer, pero es que cuando ocupan toda la escena, se pueden oponer al acto formativo.
Y, de otro lado, una investigación hecha desde la fortaleza de los campos conceptuales, podría contribuir a dar cuenta —en la medida de lo posible— de ese terreno difuso de los intereses. Por esa razón, la investigación no puede ser difusa ella misma, no puede ser interdisciplinaria antes de ser disciplinaria, no puede ser una recontextualización. Con sus herramientas, podríamos tener más tacto a la hora de denunciar, más entereza para analizar el contexto creado por nuestros propios actos (incluyendo los que llamamos “investigativos”) y más conocimiento de causa a la hora de proponernos transformar la educación.


2. Objetividades

Vamos a ampliar un poco algunos de los puntos listados más arriba, atendiendo sobre todo a las implicaciones de las posturas asumidas por los distintos agentes educativos.


2.1 Conformidad con una forma de representarse la ciencia

Pedir evaluaciones “objetivas” es parte de un comportamiento social inscrito en una forma de calificar las actividades humanas: objetivas o subjetivas. Dicha oposición pudo surgir cuando se empezó a relacionar la ciencia con una dedicación exclusiva al objeto y una eliminación concomitante del sujeto. La ciencia moderna se definió “a prueba de sujeto”, es decir, que lo que está ligado al sujeto es “arbitrario”, “impreciso”, “parcializado”, “desconfiable”, “tendencioso”. De ahí que a algunas teorías, por el hecho de ocuparse de lo humano —aun cuando lo hagan para manifestar un determinismo más, en el más arraigado espíritu objetivista—, se las haya subvalorado, se les haya negado el estatuto de científicas, o se las haya calificado de ciencias “blandas” o de “conjeturales”.
Entonces, cuando los estamentos educativos piden evaluación objetiva, por una parte, pueden estar aspirando a no ser acusados de “subjetivos” (inferiores a la ciencia); pero con ello únicamente garantizan estar a tono con los estereotipos de moda: hoy en día el paradigma de la objetividad científica se menciona hasta para aquilatar las supuestas ventajas de un jabón, cuando sabemos que la empresa, en realidad, sólo espera vender más, independientemente de los argumentos cientificistas, pero gracias a ellos. Este “estar a tono” implica utilizar una forma de juicio como forma de ver el mundo, con lo que no se la puede interrogar o desmontar, sino solamente validarla. Esta petición de “objetividad” es, entonces, acuerdo —consciente o no— con una forma dominante de representarse la ciencia (que hace parte de un modelo de sociedad).


2.2 Validación de un modelo de sociedad

Por otra parte, cuando los estudiantes (o los padres) piden evaluación objetiva, esperan tener las mismas opciones que los demás (o que sus hijos las tengan), pues en el ámbito educativo no siempre son evaluados positivamente los “mejores” ni negativamente los “peores”. De ahí que, cuando se anuncia evaluación de maestros, inmediatamente preguntemos «¿quién nos va a evaluar?», «¿con qué criterios?». La petición es, entonces, de equidad. Situación que todos conocen, pues en lo social pasa exactamente lo mismo: los puestos de trabajo, los ascensos, las distinciones, los incentivos, etc., no siempre son asignados en función de la capacidad del sujeto, pese a que la acción se valide mediante una evaluación (caso en el que “evaluación objetiva” es, en realidad, legitimación de época). No obstante las condiciones descritas, cuando la demanda y la oferta de “evaluación objetiva” no están integradas a acciones de cuestionamiento y transformación de la situación inequitativa, finalmente validan un modelo dominante de sociedad.
Este modelo domina de tal manera la vida social y personal que es esperable que no se pida una evaluación objetiva cuando se tenga la certeza de ser escogido, promovido, premiado, etc., sea con los criterios que sea. La petición o no de objetividad, en ese caso, indicaría, más bien, el lado en el que está quien la demanda; de donde “objetividad” se convierte en conveniencia (que también legitima, deliberadamente o no, la situación).


2.3 Autovalidación no problemática del saber disciplinar

Los maestros decimos —o pensamos— que en el quehacer educativo nuestras evaluaciones son objetivas. En este contexto, resulta pertinente preguntarse qué evalúa el maestro y, en consecuencia, si desde la perspectiva del saber lo hacemos objetivamente, como creemos. No obstante, es muy difícil acercarse al saber disciplinar objeto de las evaluaciones, pues la mayoría no quiere que un extraño entre a su clase, que debata su saber; y, entonces, pasamos a la defensiva: «yo ya me gradué»… o: «la Constitución consagra la libertad de cátedra»… o, peor aún: «esa es mi opinión, usted tiene derecho a tener otra». Esta actitud —explicable en la medida en que la evaluación al maestro ha sido, en muchos casos, una mirada externa con efectos punitivos—, no necesariamente se compadece con el manejo que hacemos de las disciplinas, según han encontrado los estudios etnográficos... Alguna cosa significará el hecho de que el 60% de los maestros pierdan la prueba de competencias… ¡Significa que la prueba está mal hecha!, nos apresuramos a decir; salvo que la prueba está hecha con preguntas formuladas por maestros.
Es decir, con la pretensión de evaluar objetivamente, el maestro (además de pasar los controles y cumplir sus obligaciones) hace una autovalidación no problemática de su saber disciplinar. Decimos “no problemática”, pues no media una interrogación sobre el saber, sobre sus condiciones de recontextualización en la escuela ni, mucho menos, una discusión con el campo académico correspondiente (en cuyo caso, es una contradicción en los términos la idea de autovalidar un saber disciplinar). Por supuesto que hay que aclarar que las condiciones de reproducción del rol de maestro en nuestro país no pasan por la consolidación de una relación con los campos disciplinares. Algunos maestros lo hacen contra las condiciones de posibilidad dadas por el sistema educativo.


2.4 Autovalidación no problemática del saber metodológico

Ante nuestra idea, como maestros, de que nuestras evaluaciones son objetivas, resulta pertinente preguntar cómo evalúa el maestro y, en consecuencia, si desde la perspectiva metodológica efectivamente lo hacemos de manera objetiva. Pero así como no dejamos acercar a otro para que indague nuestra relación con el saber, tampoco permitimos que pongan la mirada sobre nuestras maneras de hacer. Igual, aducimos los estudios realizados, la libertad de cátedra, el respeto a la diferencia de opinión.
Asumamos que la evaluación es parte de ese “hacer” del maestro. ¿Qué le pide la institución al respecto? A lo sumo, explicitar en el programa la forma como se va a evaluar a los alumnos: listado de acciones evaluativas (examen oral, examen escrito, trabajos en grupo...), porcentajes en los que estas acciones contribuyen a la nota final. Esto ya es un ritual; los programas se han vuelto (si no lo eran desde el comienzo) requisitos formales que sólo se retoman para copiarlos una y otra vez o, paradójicamente, para “evaluar” al maestro: uno de los puntos por los que tiene que responder el alumno en el instrumento que le suministran para evaluar a los docentes es si «entregó o no entregó programa». ¡El programa mismo no importa, lo importante es la entrega!
Pero, ¿es posible ser objetivo —desde el punto de vista metodológico— al evaluar? Uno como maestro no puede garantizar la aplicación sistemática y homogénea de los mismos criterios durante la calificación de varios trabajos, exámenes o desempeños (es una de las razones por las cuales las evaluaciones masivas evadieron durante mucho tiempo las pruebas abiertas: es muy difícil garantizar una calificación confiable). Si uno califica los ensayos de sus estudiantes, los deja un par de meses y vuelve luego a calificarlos (por supuesto sin ver la calificación anterior), ¡las diferencias pueden ser muy grandes! Incluso en una sola faena de calificación, los criterios cambian a medida que disminuye la pila de ensayos por revisar.
Un par de ejemplos, tomados de una investigación sobre textos escritos en el aula. En un ejercicio, un grupo de maestros de lenguaje, que trabajan en el mismo nivel educativo, califica el texto de un niño… el resultado es que las notas oscilan por casi toda la escala de calificaciones. Pero, si cada uno dice que evalúa objetivamente, ¿cómo es posible que obtengan resultados tan distintos?
En otro ejercicio, a un grupo de maestros le entregan fotocopia del texto original de un niño y, a otro grupo, el mismo texto, pero transcrito a letra de molde. El promedio de calificaciones del segundo grupo siempre es más alto que el del primero, siendo que ambos grupos reconocen que la caligrafía y la puntuación no son los aspectos principales a evaluar en un texto. O sea, no se aplica el criterio que, sin embargo, se está presto a enunciar, pues es lo que se espera oír en esos casos.
Entonces, cuando los maestros evaluamos, también hacemos una autovalidación no problemática de nuestro saber sobre los métodos. Asunto que se refuerza cuando, además, la evaluación se hace como cumplimiento formal de las obligaciones. Ahora bien, si los métodos que un maestro aplica dependen de unas prácticas sociales y no solamente de unas formas personales, también resulta equívoca la idea de autovalidar ese saber.


2.5 Autovalidación no problemática del saber sobre el sujeto

En una de sus investigaciones, Ana Teberosky pide a maestros del mismo curso escribir un texto como si fueran uno de los estudiantes que tienen a cargo. El resultado es que se producen muchos textos con una complejidad pragmática, semántica, sintáctica y ortográfica, que un estudiante de esa edad no hace; y, por el otro extremo, textos con una serie de “errores” deliberados —para que parezcan de un estudiante de ese curso— que un niño de esa edad no comete. La investigadora saca dos conclusiones: no trabajamos los textos hombro a hombro con los estudiantes, ni investigamos sobre las particularidades cognitivas de los sujetos con los que trabajamos.
En consecuencia, al evaluar, no sólo se hace —como en el caso anterior— autovalidación del saber metodológico, sino que además se hace una autovalidación no problemática de saber docente sobre el sujeto en formación. Y como este último es un campo de conocimiento, pues también resulta equívoca la práctica de la autovalidación, ya que los campos de conocimiento se caracterizan por la confrontación con otros.


2.6 Acuerdo con un modelo dominante de escuela

La “evaluación objetiva” que los administradores declaran hacer al funcionamiento del sistema educativo —la evaluación institucional— involucra el llenado a tiempo de formatos y el cumplimiento de requisitos formales que no requieren una reflexión sobre el quehacer educativo; todo bajo el comando de un interés que habla de eficiencia y eficacia, pero que no quiere discutir sus bases epistemológicas ni dar cuenta de sus intereses prácticos, ligados al control del sistema educativo.
En conclusión, con el nombre de “evaluación objetiva”, se pasan unos controles, se pretende autovalidar los saberes, se legitiman unas relaciones entre lo administrativo y lo académico y, finalmente, se manifiesta, conscientemente o no, un acuerdo con un modelo dominante de escuela en el que los fines de la acción se buscan separando la organización de la ejecución, ordenando a sus miembros de tal manera que haya superiores que dirigen a subordinados, y considerando la interacción y el sentido como un ajuste entre fines y medios, atendiendo a parámetros de eficacia.


2.7 Acuerdo con una idea dominante de ciencia

¿De dónde provienen los enunciados que pretenden decir lo que pasa en educación? De muchas partes, pues la educación es un campo en pugna. Pero, por el hecho de ser una pugna históricamente situada, sólo unos discursos terminarán volviéndose hegemónicos en ciertos momentos, no por ser más “verdaderos”, sino por su servicio en las luchas políticas. Así, la psicología experimental terminó reinando, no sólo en educación, sino en el mundo entero, como podemos comprobar por la omnipresencia de las encuestas. Esto fue posible gracias a su decisión de mostrarse como ciencia, como saber “útil”, a comienzos del siglo XX. En ese momento, la psicología tomó el camino de los instrumentos y de los resultados “verificables” a través de la estadística… por supuesto considerando que se puede:

      ·            concebir el sujeto desde el punto de vista del comportamiento observable;
      ·            describir el comportamiento sin especulaciones, en atención a la regularidad de sus manifestaciones;
      ·            segmentar en escalas tales manifestaciones.

Con ayuda de estas consideraciones, aplicó la estadística y se puso a hablar de “medición objetiva” de los asuntos del sujeto (de ahí el concepto de “psico-metría”). En consecuencia, la llamada “evaluación objetiva” —en este paradigma psicométrico— concentró la atención en los asuntos técnicos, con implicaciones como las siguientes: de un lado, como las matemáticas parecen indiscutiblemente verdaderas (cuando en realidad no pueden no serlo, dado que son tautológicas), su uso ha operado falsamente como una prueba de la cientificidad de la psicometría y, particularmente, de la evaluación que ella distribuye. De otro lado, el énfasis en lo técnico ha tornado los efectos de la evaluación como implicaciones lógicas y no como decisiones políticas: ahora creemos que acceder o no al sistema educativo, ascender o no por sus peldaños, tener o no el saber o el comportamiento esperado, merecer un premio o un castigo… es solamente asunto de capacidades personales, medibles, sin la incidencia de procesos político-sociales.
La consistencia lógica nos obnubila de tal manera que no resulta “visible” el proceso histórico que determinó la llegada de la psicometría a la escena educativa. No basta con haber mostrado que la medición del coeficiente intelectual ha servido, desde el comienzo, para justificar las segregaciones, empezando por la racial. Con todo, aunque no sea suficiente interrogar los intereses en juego, se puede mostrar cómo se articulan éstos al manto técnico, neutral; interrogar el estatuto de “dato” que se le otorga a lo que sale de la aplicación de los instrumentos; y demostrar que, más que provenir de una “medición” de una realidad externa al instrumento, los resultados se producen, en gran medida, por el instrumento y por el sistema de enunciados que lo respalda.
Ahora bien, que los criterios estén explícitos, de un lado, permite discutirlos (a diferencia de la mayoría de las posturas, cuyos criterios pueden faltar, estar implícitos, o cambiar al vaivén de las circunstancias). Y, de otro lado, no implica que, al evaluar, las autoridades obren en consecuencia con ellos; es más, se puede decir que obran sistemáticamente contra ellos.
Entonces, desde esta perspectiva, cuando se habla de “objetividad”, se acuerda con una idea dominante de ciencia, a saber: la idea positivista de una ciencia que acumula de forma progresiva sus hallazgos, a saber: el develamiento de los secretos cuantitativos de la naturaleza (en este caso de la naturaleza humana), y que verifica empíricamente sus hipótesis, formula leyes y prevé el futuro.


3. Objetividad relativa

Si podemos mostrar que el estudiante es algo más que comportamiento observable; que el maestro es algo más que el ejecutor de unas “medidas de mejoramiento” hechas técnicamente por otros a partir de las evaluaciones; que el conocimiento es algo más que un referente inamovible bautizado con cifras; que es interrogable la legitimidad de la importación de la matemática a la psicología; que la educación sobrepasa el control y la acción gobernada por objetivos explícitos; que nuestra evaluación —como parte del proceso formativo— es mucho más que medición de la psiquis… entonces se hace necesario trabajar con una concepción más amplia de “objetividad”, tal que permita interrogar por los conceptos de conocimiento, sujeto, educación y formación, y reconocer la posibilidad de promover a la existencia no otros ideales, sino otras condiciones de posibilidad, a condición de cualificar nuestra postura, y no de seguirse quejando con el vocabulario vigente de la política educativa.


3.1 Qué se evalúa

En relación con el objeto de la evaluación, aquí hablaremos de validez, y entenderemos por tal la relación entre el objeto de la evaluación —aquello que se evalúa— y la teoría que, a su vez, explica tal objeto en el campo de las disciplinas, no en el campo educativo. Una evaluación aumenta o disminuye su validez a medida que ambas cosas se acercan o se alejan, respectivamente.
Se evalúan, por ejemplo, los logros en matemáticas; ahora bien, no tienen por qué coincidir el nombre de la disciplina con el nombre de la asignatura escolar (el cálculo y la trigonometría, por ejemplo, son parte de las matemáticas, y sin embargo nombran asignaturas distintas). Pues bien, el grado de validez de una prueba que hagamos en esta asignatura es proporcional al grado de relación que tengamos con la disciplina llamada “matemáticas”. Es por eso que el profesor de la asignatura se siente autorizado para evaluarla: es matemático, licenciado en el área o, al menos, se ha formado para cierto rango de edad para el que siente que sabe el nivel de matemáticas que los estudiantes deben aprender.
Entonces, si estudiamos en la universidad o en la normal y, una vez obtenido su título, nos dedicamos a enseñar y sólo volvemos a estudiar (repasar) lo necesario para dictar clase, nos vamos alejando del campo disciplinar. Por supuesto que las condiciones para ser maestro en nuestro país no exigen más que el repaso y el ejercicio del texto escolar, pero el efecto es que nuestro saber se hace menos válido, no por ser menos “verdadero”, sino por carecer de relación con el campo (como un billete de alta denominación en el desierto). Así, nuestras evaluaciones van perdiendo validez, aunque —desde luego— permanece su fuerza como instrumento de control, de autovalidación del maestro, de cumplimiento de funciones, etc.
En el caso de una prueba psicométrica, la validez tendría que establecerse, como obliga la disciplina, de una manera razonada. Pero entonces eso se resuelve apelando a los llamados “expertos”, que están por fuera de la psicometría; es decir, si se trata de evaluar matemáticas —para seguir con el ejemplo— convocan a una persona reconocida en ese campo, para que defina lo que debe ser evaluado y le dé consistencia al objeto de evaluación. Tal salida —llamar al experto— sería preferible si la única alternativa a ella fuera confiar simplemente en una formación (de postgrado, de pregrado o de normal) que sólo ha tenido oportunidad de enriquecerse a partir de la “capacitación” docente disponible (de la que, sin embargo, muy pocos hablan bien).
Ahora bien, establecer la validez de la evaluación externa no escapa a la misma condición de cuando la validez queda autoasignada por (y autoconfiada a) el maestro. Es decir, también el llamado “experto” tiene una relación específica con la disciplina. Relación que goza de algún reconocimiento social que proviene de una combinación —en proporciones variables— de dos tópicos: de un lado, los vínculos, la búsqueda de beneficios personales y el propósito de imponer o de dejar que se impongan ciertas políticas; y, de otro lado, algún nivel de saber efectivo en el área.
Entonces, si bien la validez de gran parte de la evaluación de aula tiene —co­mo hemos dicho— el inconveniente de retornarle al maestro una autovalidación no problemática de su relación (sea la que sea) con la disciplina, la evaluación externa, de cara a la educación escolar, también tiene un inconveniente muy fuerte: pese a la confianza que pueda depositarse en el experto, ¡son los maestros —no los expertos— los que continúa haciendo las clases y las evaluaciones de aula!; ¡su saber al respecto no se va a modificar por los resultados de una prueba… las modificaciones se producen en el saber por asuntos completamente distintos! Así, no resulta clara la manera como los procesos de evaluación externa van a poner a todos los maestros a la altura de las discusiones importantes de las diversas disciplinas. Pero, ¿acaso nosotros mismos, los maestros, no llamamos también a expertos para que nos enseñen a hacer planes de estudio, para que nos garanticen que a los estudiantes les vaya bien en las pruebas, para que nos resuelvan los atolladeros didácticos? Es decir, ese mecanismo para establecer la validez (llamar expertos) no busca que todos los maestros se vuelvan expertos, sino más bien que se requiera eternamente de esa división (maestros –vs.– expertos), mediada por la evaluación.
Obsérvese que es el mismo principio que regía durante la tecnología educativa: como se partía del principio de que era imposible hacer de todos los maestros unos expertos como los que diseñaban el currículo en el MEN, entonces se les daba, al menos, las técnicas para que —independientemente de su relación con la disciplina— realizaran actividades que permitieran a los estudiantes aprender. Como se ve, nada de lo estructural ha cambiado. La concepción de formación que tiene la autoridad educativa sigue siendo la misma, muy pobre, aunque haya basculado del currículo a la evaluación.
En conclusión, si la evaluación de aula expresa finalmente una posición frente a la disciplina, según la cual el maestro es el que sabe (“evalúo, luego sé”), la evaluación externa a su vez también expresa una posición frente a la disciplina, según la cual no son los maestros los que saben, sino los expertos. Por tanto, ninguna de las dos posturas hace avanzar la educación, pues, de un lado, ninguna de las dos interroga la relación del maestro con la disciplina... y es él quien ofrece, al fin y al cabo, la educación; y, de otro lado, ninguna de las dos posturas interroga esa división del trabajo que eterniza unos roles que no garantizan el cacareado mejoramiento de la calidad educativa. En el primer caso, la evaluación no cuestiona al maestro (el cuestionado es el estudiante); y, en el otro caso, la evaluación resulta más bien dando lugar, de manera general, a entrenamientos en resolución de instrumentos como los usados en las evaluaciones externas, con el fin de evadir el cuestionamiento que por carambola se le hace al maestro (se aplica al estudiante, pero termina cuestionando al maestro y a la institución).
Las evaluaciones externas se han equiparado a la “libre competencia” en economía: supuestamente, en esa lucha por ganar, todos mejorarían. Pero no es cierto, la “libre competencia” nada mejora por sí misma; en la misma economía —de donde se dice sacar esa idea— se sabe que el mercado pretendidamente libre se las arregla para corromper la oferta y la demanda. Tanto es así que, en evaluación, en lugar de “mejoramiento”, lo que aparece es el intento de adaptación al sistema de pruebas: los maestros —cuando no las instituciones mismas— empiezan a adiestrar a los alumnos en el diligenciamiento de pruebas, pululan los institutos que venden el entrenamiento, las editoriales que ofrecen test para practicar… Esto, por otra parte, permite hacerse una idea de las posiciones relativas del experto (que puede preverlo, pero prefiere ganarse el contrato) y del maestro (que no obstante ser un profesional, se pliega convenientemente a lo que cree que el otro quiere de él).
Con todo, aunque el experto tenga una relación con la disciplina (asunto a verificar), la validez no es un juicio de expertos; es más bien un juicio posible en el campo, independientemente de quién lo profiera. Si se atiende a los procesos históricos de las disciplinas, el llamado experto sería alguien —uno más— que puede o no pertenecer en alguna medida, o que no pertenece, a un campo conceptual, que tendría una posición determinada en ese campo (donde hay una pugna por el control simbólico). De tal manera, la validez es, en realidad, una toma de posición —en tiempo y espacio dados— frente a un campo en pugna. Ciertamente, algunas personas pueden dar cuenta de algunos debates que le son contemporáneos a la vida de su disciplina; pero esto no las aísla del trabajo que se ha abierto en cierta época. Así, ver a otro como experto revela cuán lejos se está de las problemáticas de la disciplina, o qué tan cerca se está de los propios intereses. En consecuencia, los llamados “expertos” pueden involucrar en las pruebas perspectivas excluyentes sobre el mismo objeto, sin que el conjunto de lo preguntado sea hoy validable bajo una posición epistemológica diferente; pueden promover “verdades” independientes de las condiciones sociales en que se producen… todo porque está cubiertos por el manto político de la experticia, que no tiene obligación de mostrar su vínculo real con el campo.
Es hora, entonces, de desambiguar la palabra “experto”: es una característica, nombrada en términos prácticos, que no necesariamente coincide con la experticia del así nombrado; además, dicha característica no es en realidad un criterio de validez, sino más bien, un criterio contractual. De esta forma, si la validez es un campo de problemas en una brecha epistemológica, se pueden elegir supuestos expertos que no necesariamente tienen una posición en esa “brecha epistemológica”, sino más bien cierto reconocimiento (en el campo educativo, en el campo político, en el campo administrativo)… y bien sabemos que el reconocimiento no es conocimiento, que incluso se le opone. Y también por creer en la idea de los expertos, digámoslo ahora, aislados (únicos, irrepetibles), se termina condenando al maestro a la posición de aplicador de lo que otros elaboran; es decir: para la autoridad educativa, el maestro es alguien en cuya formación no se confía ni se trabaja y que, por lo tanto, se lo quiere poner a hacer una labor puntual, mecánica, sin que tenga conocimiento del proceso global (más o menos la definición del proletario en el comienzo del capitalismo); que su acción termine —como se soñaba vanamente en la época del diseño instruccional— haciendo que los estudiantes aprendan, sin que cambie su propia posición frente al saber.
No en vano, los documentos que arrojan las evaluaciones masivas vienen en varias versiones, que apuntan a niveles de saber:

         ·            una de miles de páginas, con cientos de gráficas, tablas e interminables anexos… esta versión no la lee nadie; en gran parte la hace el software estadístico;
         ·            otra versión de muchas menos páginas, a la que le han podado gran parte de esas cosas que sólo entienden los expertos; esta versión está dirigida a la comunidad educativa… con todo, la leen muy pocos, aunque es agradable de ojear, pues tiene colores, un lenguaje cotidiano y muchas recomendaciones;
         ·            otra es la versión “ejecutiva” para los ministros y los secretarios de educación que no tienen tiempo para leer —a veces ni siquiera saben leer—. Por eso está hecha en Power Point y tiene apenas unas cuantas diapositivas.
         ·            Y, por último, la versión que va dirigida a los medios de comunicación; ésta es la que produce los efectos de escándalo que conocemos (por ejemplo, los recientes relativos a los resultados de nuestros estudiantes en las pruebas PISA). Se puede despachar en menos de tres minutos. Esta es la versión que casi todo el mundo lee, pues dramatiza los hechos como en las telenovelas y nosotros estamos sedientos de esas confrontaciones entre buenos y malos, de esas dramatizaciones en las que hay vencedores y vencidos, en las que se puede identificar al culpable.

Muchos maestros se interesan por asumir su posición como intelectuales que actúan en el campo educativo; pero sabemos que las condiciones bajo las cuales se da hoy la educación en el país no le hacen necesario ponerse a la altura de las discusiones del campo disciplinar en el que fueron formados (ser ellos mismos “expertos”). La tarea, entonces es compleja frente a la validez, pues no podría pasarse por alto el hecho de que las evaluaciones masivas se hacen porque la autoridad educativa desconfía del saber del maestro, cuya formación ella misma refrenda con su firma y sello en el diploma expedido por las instituciones formadoras de docentes. O sea: debería desconfiar de sí misma, pero prefiere apuntar en otra dirección.


3.2 Cómo se evalúa

En relación con la manera de hacer la evaluación, aquí hablaremos de confiabilidad, y entenderemos por tal la consistencia metodológica —cómo se evalúa—de la evaluación. Hay muchas maneras consistentes de evaluar un objeto en el campo educativo; en todos los casos, para la presente reflexión, consideraremos que ello está íntimamente relacionado con la pedagogía, con las maneras como el maestro intenta relacionar al aprendiz con el saber. Por eso, todos los profesores (sin importar el área) se sienten autorizados a evaluar: son licenciados, normalistas, o profesionales con “capacitación” pedagógica extra; pueden haber hecho un postgrado en educación o en pedagogía. En muchos casos, la formación pedagógica incluye asignaturas relacionadas explícitamente con la evaluación.
La confiabilidad de una evaluación es proporcional al amarre entre el ejercicio evaluativo y el proceso pedagógico. Así entendida, la evaluación no tiene que estar expresa (todo el tiempo le tomamos el pulso a nuestros enunciados y a los de los demás), ni es separable de la relación pedagógica. De tal forma, la confiabilidad dependería de la relación particular que el docente tenga con el campo pedagógico, en general; es decir, con el conjunto de las discusiones que se llevan a cabo entre los que tienen como objeto de su comprensión el asunto de la enseñanza. Campo que gana especificidad en la medida en que la educación escolar no es simplemente una “transmisión” de las disciplinas teóricas, sino un “traslado”: una selección, que se ha operado sobre un saber, se introduce en un nuevo contexto donde juegan asuntos específicos, que no aparecen en el contexto de las disciplinas, tales como la edad de los aprendices, la oportunidad de las enseñanzas, los contextos en que éstas se imparten, los problemas de comportamiento, la enseñabilidad de los saberes, los asuntos de la evaluación y la promoción, las normativas que rigen el sistema educativo, los intereses propios de los estudiantes a medida que van creciendo, los propósitos educativos de un país, etc. Y, acerca de todos estos aspectos, el maestro también se supone que se educó; es parte de su formación como profesional de la educación.
Pero, en muchos casos, no vamos más allá de los estudios pedagógicos realizados durante la formación profesional como educadores. Como dijimos para el caso del saber disciplinar, en nuestro país, las condiciones para ser maestro en la mayoría de los casos no exigen más, no hacen que se necesite estar en debate con el campo pedagógico. Es decir, sobre este punto, no tenemos mucho más que el saber —explícito o no— que los maestros obtuvieron durante su formación y lo que obtienen como efecto de su práctica y de los niveles de reflexión sobre ella. Las discusiones propias del campo pedagógico han quedado restringidas a lo que suponemos que ocurre para otorgar premios (como el premio Compartir al maestro) o asignar incentivos (como en las convocatorias del IDEP). Algo intentó aportar la FECODE en este sentido, cuando creó el Centro de Estudios e Investigaciones Docentes (CEID); pero terminó alineado con los asuntos gremiales (que tienen toda su legitimidad en el campo respectivo), lo que no ha permitido hacer una contribución decisiva para que los maestros se pongan a la altura de las discusiones del campo pedagógico.
En el caso de la psicometría, la confiabilidad se busca de una manera razonada. Pero mientras en el establecimiento de la validez —como hemos explicado— se brinca fuera del campo mismo de la psicometría al de los expertos en las áreas, para establecer la confiabilidad se apela a la estadística, que es el método de dicha disciplina. Ya no es asunto de quienes conocen las áreas; ya no se piensa que haya una pedagogía específica para cada área (y, quizás, una evaluación concomitante), sino que habría una manera “objetiva” —la dada por la estadística— para evaluar cualquier tema, a cualquier grupo, en cualquier momento, en cualquier parte. De ahí su aire de cientificidad: a prueba de sujeto, a prueba de contexto, a prueba de historia… pero de ahí también su peligro. Ese para-todo que se le supone, sin embargo, no pertenece a la estadística. Perfectamente, podría utilizársela para caracterizar la heterogeneidad y no para producir una imagen de homogeneidad que está, como prejuicio, desde el comienzo.
Para determinar la confiabilidad, entonces, las evaluaciones externas reducen el número de “expertos” a uno: una sola disciplina define si lo evaluado configura —sobre datos empíricos: las respuestas de los evaluados— un objeto, si la prueba es replicable, si permite discriminar niveles de acceso al conocimiento del objeto de que se trate; en pocas palabras, si mide rigurosamente lo que promete medir. Así, por ejemplo, los niveles de dificultad que el experto de la disciplina cree que tienen las preguntas, puede no coincidir con la dificultad materializada por la población que responde; y es ésta la que se tendrá en cuenta, no la primera (es decir, modelo matemático mata experto). De tal manera, si unos resultados no ajustan, se duda de la aplicación del instrumento (por ejemplo, que en unos casos se hubieran dado más o mejores instrucciones); se duda de la consistencia del objeto a evaluar establecido para la prueba; se duda de la manipulación humana de la información... pero rara vez se duda del modelo. De esta forma, los psicómetras han validado instrumentos gracias a los modelos matemáticos, no a la validez del objeto.
Este criterio psicométrico parece preferible al de quedarse simplemente en la formación pedagógica que la profesionalización le dio al maestro (que, de entrada está puesta en duda), complementada o descompletada por una reflexión no confrontada con otros sobre la experiencia y, de vez en cuando, tocada por la llamada “capacitación” (de la que, insistimos, nadie habla a favor). Pero, si bien el maestro considera, por sí mismo, “confiables” sus evaluaciones (lo que revela su escasa relación con el campo pedagógico), considerar que la confiabilidad sería otorgada por la estadística es también una posición, tan precaria como la otra, frente al campo pedagógico. Es decir, también el estadígrafo tiene una relación con dicho campo, pero no como efecto de un trabajo, de un reconocimiento de los pares educadores, sino a partir de una legitimación política que lo exime de estudiar los asuntos de la pedagogía. Por eso los oímos diciendo ligerezas, como esa —ya comentada— de que la libre competencia produce el mejoramiento de la calidad educativa, o como esa de que las evaluaciones masivas algo mueven en la institución.
La elección de la estadística, la utilización que de ella se hace, ha provenido más de la necesidad de imponer ciertas políticas, que de la discusión propia de los maestros a propósito de sus prácticas. Por supuesto que ello no es “culpa” de la estadística, la cual tiene un objeto abstracto-formal para el que los datos provenientes de la escuela no tienen más relevancia que los provenientes de cualquier otra fuente. Y por supuesto que la evaluación no está en este campo, sino en el campo de la decisión, que es político. No se decide con base en las características conceptuales del discurso que se toma como medio de legitimación. Así, la psicometría no conquistó el campo educativo por ser objetiva, sino por ser un discurso adaptable a la aplicación de cierta política educativa. No olvidemos que entre la primera y la segunda guerra mundial, los modelos teóricos de la psicología, desarrollados por Alemania y Estados Unidos, fueron muy distintos. Nosotros terminamos cubiertos por el modelo que se impuso en USA, debido a las relaciones políticas y económicas que tenemos con ese país, no debido a las bondades epistemológicas de la psicología experimental.
Obsérvese que, si bien no era poco el poder que tenían los expertos convocados para establecer la validez, el poder del experto convocado para garantizar la confiabilidad es enorme: no hay sino una opción, no hay discusión posible.
Entonces, si bien la confiabilidad de la evaluación de aula puede tener el inconveniente de retornarle al maestro una autovalidación no problemática de su relación (sea la que sea) con el campo pedagógico, la manera de buscarse la confiabilidad en la evaluación externa también tiene un inconveniente: pese a que la estadística sea una disciplina seria, dejar en sus manos la “exactitud” de la pedagogía no necesariamente cambia la práctica cotidiana del aula; de tal manera no se ve el camino para hacer que los maestros mejoren su práctica pedagógica y que sean mejores evaluadores. La evaluación psicométrica, atravesada por la estadística, se hace pasar por “confiable” en tanto práctica ideal de evaluación; es decir, que si los evaluadores pudieran sugerir la mejor manera de evaluar en el aula, ésta sería la evaluación psicométrica. ¡Y no son pocos los maestros que, a partir de las evaluaciones masivas, ahora evalúan con test de múltiples opciones y única respuesta verdadera… algo bastante lejano a algunas maneras posibles de enseñar a los estudiantes. Y es que el encuentro educativo es impredecible y se va desvirtuando a medida que se lo trata de hacer coincidir con un ideal.
A través de la evaluación masiva, se pretende mejorar las prácticas de los maestros; pero no es claro que una evaluación como la psicométrica pueda poner a todos los maestros a la altura de las discusiones pedagógicas (incluyendo los asuntos de las posibilidades de la psicometría en educación). Al contrario, se ve que nos resignamos a no poder entender los misterios de esa “caja negra” que produce los resultados de los que sí debemos ocuparnos, mediante las medidas de mejoramiento. Si, a propósito de las evaluaciones nos reunimos a discutir los asuntos metodológicos, queda claro que alguien tiene que tomar la iniciativa desde otro lugar, con lo que la evaluación se revela sólo como un pretexto… bastante costoso, valga la pena decirlo. Y si, debido a la falta de formación epistemológica y pedagógica de los evaluadores profesionales, vienen a decirnos que este pretexto —la evaluación— tiene la fuerza suficiente para poner a los maestros a pensar sobre estas cosas… pues eso resulta halagador para ellos, pero resulta triste para nosotros, pues estaríamos delante de un caso típico de motivación: estudiamos por el premio, o por el temor del castigo. El problema es que ninguno de las dos actitudes se puede situar a la base de una transformación cognitiva.
De tal forma, si la evaluación de aula puede expresar una posición frente a la campo pedagógico, según la cual el maestro es el que sabe evaluar (“soy maestro, luego evalúo bien”), la evaluación externa, a su vez, expresa una posición frente a la pedagogía, según la cual la metodología estadística (no los maestros), es la única que garantiza evaluaciones objetivas; es más: unos programas de computador, son los garantes de que una práctica pedagógica evaluativa supuestamente esté desprovista de subjetividad. Como se ve, ninguna de las dos hace avanzar la educación, pues, de un lado, ambas dejan intacta la relación de los maestros con la pedagogía; y, de otro lado, ninguna de las dos interroga la posición del estadígrafo frente a la educación. En el caso del maestro, la evaluación que él practica puede no cuestionarlo mucho (el más cuestionado es, de nuevo, el estudiante); y, en el caso de la evaluación externa (también usada para cuestionar al maestro y a la institución), termina produciéndose —como hemos dicho— una actitud de adaptación, de búsqueda de resultados, sin importar los medios. Esto, de otra parte, revela algo sobre las posiciones relativas del estadígrafo (que sumisamente da por hecho su lugar de árbitro frente a un campo tan complejo, como si así mismo resolviera los asuntos conceptuales en su campo disciplinar) y del maestro (que termina inclinado ante la supuesta evidencia de los resultados, volcado como un trabajador supernumerario a su tarea del momento, abdicando de su estatuto de trabajador liberal, intelectual, que decide).
Entonces, si el estadígrafo tiene una relación lejana con el campo pedagógico (en realidad es la política la que lo ha acercado a la educación), la confiabilidad no puede ser tomada exclusivamente como una decisión numérica. No es así como se ha ido produciendo la escuela a través de la historia; el estadígrafo en realidad sólo es alguien que pertenece a un campo de trabajo disciplinar que apenas hace un siglo entró en relación con la educación escolar y que, en nuestro país, sólo hace unos años (desde 1991) que tiene funciones tan determinantes; pero eso no le da a su posición más legitimidad que a otras.
De tal manera, la confiabilidad de la evaluación escolar también es una posición histórica, restringida a la escuela. Lo que puede decirse desde las aproximaciones estadísticas es un conjunto de información que no escapa (como quiere hacerlo ver la idea de “objetividad”) a la ubicación histórica, política y social. Puede afirmarse que la confiabilidad pertenece a un conjunto de problemas en un campo pedagógico. Por eso pueden operar allí técnicos en medidas psicológicas, pero que no tienen otra posición en el campo pedagógico. Por haber impuesto la idea de “objetividad” de las evaluaciones, se piensa a los técnicos aislados de los problemas de la escuela, pero no como un inconveniente, sino más bien como una ventaja: supuestamente llegarían sin los problemas propios de la institución, incluso sin el conocimiento de la institución escolar, pues su carácter “técnico” les permitiría supuestamente ir más allá de lo perceptible desde la escuela misma. Se le pide al maestro colaborar con el proceso, hacer como hace la evaluación externa, pues se lo considera “subjetivo” para hacer evaluaciones; por eso se prefiere el juicio externo al juicio del maestro. No se confía en el saber pedagógico del maestro, ni importa lo que haya podido construir al respecto. Por eso le viene muy bien la posición de espera de los resultados, para realizar labores de mejoramiento; como se ve, se trata de una iniciativa venida del exterior, no nacida de su propia práctica; por supuesto que impacta la práctica, pero en dirección a una lamentable pragmática.
Con todo, una posición razonada frente a esta ubicación histórica de la práctica pedagógica puede asignarle un papel preciso a la estadística (no justamente el de regente), que contribuya en el proceso integral de comprensión, para lo cual ese papel ha de estar subordinado a una perspectiva de toda la escuela y no al contrario. Insistimos: la estadística puede ayudar a caracterizar la heterogeneidad, pero no la psicometría, pues no es un campo disciplinar, sino un campo de aplicación al servicio de la política.
Frente a la confiabilidad de la evaluación, nos parece que desconfiar de los maestros sólo parece conducir a lo peor. Sabemos que muchos ya asumen su posición como intelectuales que debaten en el campo pedagógico, pero no son la mayoría. Nos parece necesario crear condiciones de relación con la escuela y con la sociedad tales que sea deseable para el maestro ponerse a la altura de las discusiones pedagógicas. Y las evaluaciones masivas ni lo quieren ni lo pueden hacer. Pero la evaluación de aula tampoco lleva necesariamente a eso.





3.3 A quién se evalúa

En relación con la población a la que se le aplica la evaluación, aquí hablaremos de pertinencia, y entenderemos por tal el ajuste entre la prueba y la población a la cual se aplica —a quién se evalúa—. Una evaluación es pertinente si configura un destinatario tal como aquel público empírico que va a intentar resolver el desafío. Los estudiantes que tengo al frente tienen que sentir que el asunto les compete, así les parezca muy fácil o muy difícil, así les vaya mal o bien, así se pongan nerviosos. En ese margen entran, en un extremo, el desafío que va un poco más allá de lo que el sujeto puede, pero que se apuesta a que con los elementos que tiene se sentirá desafiado a tratar de responder; y, en el otro extremo, la idea de trazar una “línea base”, un mínimo que todos conocen.
Esto lo puede calcular el maestro sobre la base de su trabajo con los estudiantes, si está pendiente de sus niveles de creencia, de sus niveles de elaboración, si siente su labor como la creación de un contexto de relación con el otro que desafía sus capacidades para tratar de resolver lo retos cognitivos.
Por su parte, la psicometría tiene elementos para calcular, sobre la base de las respuestas, si los estudiantes tomaron el reto como propio, si los niveles de dificultad están acordes con la población. Sin embargo, hay un nivel un poco más abstracto —digamos— que me interesa considerar: la distribución de la información, acerca del objeto de evaluación, a la población a quien se aplica la prueba. Por ejemplo, las autoridades educativas piensan que si hay unos referentes idénticos —currículo común, lineamientos, indicadores, logros, estándares, etc.— entonces todos los estudiantes estarían en igualdad de condiciones y se los podría evaluar. Evidentemente, se cuenta con que el sistema educativo (generalmente de manera explícita, mediante normas) ha establecido previamente unos objetivos, así como claros indicadores para saber la proporción en que esos objetivos se cumplen; la medición de los resultados, de los logros, se da por la mensurabilidad supuestamente inherente al comportamiento; de paso, se supone también que la actividad, por ejemplo la acción de un maestro, está fuertemente regida por los objetivos establecidos previamente.
Es decir, se evalúa la población en la medida en que tiene algo en relación con lo cual puede considerarse homogénea; de lo contrario, no se puede evaluar a todos con el mismo instrumento. No en vano, en el caso colombiano, los programas ministeriales que traían los objetivos, los contenidos y las actividades, siempre incluían también los “indicadores de evaluación”; no sólo se suponía que todos los niños del país, independientemente de las características de los maestros (una ciencia a prueba de sujeto, una educación a prueba de maestro) recibían la misma instrucción, sino que tenían que ser evaluados de manera semejante, supongo que en la medida en que a cada contenido le corresponden unas formas privilegiadas de evaluación.
Hoy en día, son los estándares y los indicadores de logro los que permiten afirmar a las autoridades educativas que los estudiantes pueden ser evaluados con las pruebas masivas tipo SABER, PISA, TIMMS, etc. Es decir, un criterio psicométrico preciso es el que prohíbe hacer evaluaciones idénticas a poblaciones heterogéneas en relación con su acceso al objeto de evaluación en cuestión (atención, porque una prueba pertinente no excluye que la población sea heterogénea en relación con otros tópicos). En nuestro caso, la homogeneidad de los estudiantes estaría dada por el hecho de pertenecer a los mismos cursos y, por esa misma razón, de haber recibido supuestamente idéntica educación, ya que todos los profesores tendrían que haberse regido por los mismos parámetros.
¡Qué diferencia entre lo que sucede en clase y lo que presupone la psicometría! Parece como si en el aula la pertinencia fuera objeto de construcción, mientras que para las evaluaciones externas fuera un objeto presupuesto, sobre la base de consideraciones procedimentales tan gruesas que llegan a la torpeza de creer que la realidad obedece a nuestros propósitos. Sin embargo, las políticas, las decisiones ministeriales, los propósitos educativos… sufren innumerables transformaciones a medida que van aterrizando en las condiciones específicas. Desde las vías mismas de comunicación oficial hasta la manera como se entienden las cosas en sitio y lugar, introducen una enorme entropía. El gobierno, que aplica pruebas masivas presuponiendo la homogeneidad de la población, sabe que sus políticas, al cabo de los años, a veces ni se conocen y, donde se conocen, han sufrido todo tipo de adaptación, incomprensión, desdén, empobrecimiento, etc. Recuerdo, por ejemplo, la investigación que hizo el mismo MEN para saber qué tanto se conocía la Renovación Curricular. Los resultados fueron tan negativos, que ni siquiera los publicó.
Si algo ha impedido que los medios (radio, cine, TV, computadores) reemplacen a los maestros, es la heterogeneidad de los estudiantes, producida, entre otras cosas, por la heterogeneidad de contextos en que es impartida la educación (a lo cual debería agregarse la heterogeneidad de la formación de los maestros). La creencia en la homogeneidad produjo en su momento la ilusión de que los medios, uno a uno, iban a permitir un cubrimiento total y uniforme de la educación; no obstante, pese a que la cantidad y la velocidad de información es cada vez mayor, sigue habiendo un “obstáculo” insalvable: el proceso específico mediante el cual cada uno aprende en el contexto de la interacción con los otros (que no es únicamente de colaboración o de comunicación, sino principalmente de desafío, oposición, etc.).
En otras palabras, quienes determinan los procesos de evaluación externa dan por hecho (difícil es decir que lo creen) que la población es homogénea, y por eso la evalúan; para ello, hacen una abstracción de ciertas diferencias, procedimiento que, si bien tiene su aplicación eficaz en ciertos campos, es bastante discutible que en educación sea más útil que otro tipo de investigación. Por su parte, el estadígrafo no constata si la condición está cumplida (bastaría con que abriera los ojos para que se diera cuenta que no es así), sino que acepta el dictamen del político al que sirve, al cual le conviene decir que si hay unos estándares y si los maestros están obligados a que los estudiantes los logren, pues ya está dada la condición necesaria para evaluar de forma pertinente.
Ahora bien, un país puede tener como ideal una educación de calidad para todos sus habitantes. Pues bien, es necesario trabajar para ganar las condiciones de posibilidad de semejante panorama, pues de hecho no están dadas. No se necesita investigar demasiado para enterarse de que eso es así: tenemos una historia de desarrollo desigual de regiones, zonas de conflicto, estratificación económica que no les da de entrada las mismas condiciones a todos los estudiantes. ¿Es pertinente evaluar antes de reducir estas desigualdades? ¿No es previsible que se van a encontrar diferencias de desempeño atadas a estas desigualdades sociales? Y, por supuesto: los menores puntajes en las evaluaciones masivas, en Colombia, se tienden a encontrar —en todas las aplicaciones, si excepción— en las poblaciones pobres, en las que viven en los márgenes de la metrópoli y en las zonas de conflicto. Y, sin embargo, se sigue evaluando… No parece tanto una evaluación impertinente, como una evaluación desleal. Los administradores de la educación han evaluado a la población equivocada. Y, bien pensado, estamos ante el mismo fenómeno de apuntalar “científicamente” la segregación racial: los económicamente deprimidos, los marginados, las víctimas del conflicto resultan ser —en la jerga de hoy— “incompetentes” o, al menos, “poco competentes”. Ante semejante hallazgo, no parece necesario trabajar por la equidad social, sino por el ajuste pedagógico.
De otro lado, en el campo de la educación escolar se han invertido muchos esfuerzos, desde varias posturas teóricas, en construir etapas de desarrollo cognitivo en relación con los distintos saberes que se dispensan en la escuela, lo cual daría la base para postular una de las condiciones de la evaluación, que, no obstante, no riñe con la homogeneidad exigida. Se trata de que estudiantes “iguales” (en capacidades y en información) se pueden diferenciar en términos de sus desempeños. Y ese es el criterio para distribuirlos en la escala que va de buenos a malos. No obstante, hay tal diversidad de posturas frente a esto de los niveles de desarrollo cognitivo, que en este momento la psicometría serviría más para acompañar estas búsquedas que para hacer afirmaciones taxativas sobre la educación; es decir, el hecho de ser masivas permite entender que tales evaluaciones dan por sentado que ya las etapas de desarrollo están plenamente acordadas, cuando en realidad hay desarrollos muy desiguales, según los objetos de conocimiento y, aún en los que más han avanzado, se reconocen alcances todavía muy precarios o muy generales como para justificar el tipo de mediciones que se realizan en educación. Insistimos: las evaluaciones masivas, en este contexto, no están autorizadas en una homogeneidad, pero podrían servir para buscar en esa dirección, reconociendo los límites de tales búsquedas.
Vista de esta forma, la “pertinencia” es una toma de posición que compromete el conocimiento sobre dos aspectos: de un lado, el aprendizaje de los estudiantes; y, de otro, sobre el país en el que están nuestras escuelas y el país que estamos construyendo —a escala de lo que nos corresponde— con la educación que estamos dispensando. Si los maestros mismos consideran homogéneos a sus estudiantes, eso tiene consecuencias en la conformación de la comunidad educativa, pues fundamenta ciertos tipos de interacción con los estudiantes, con los colegas y con los padres de familia. Y, si los consideran heterogéneos, habría que estudiar qué es lo que se está haciendo con esas diferencias.
Por su parte, la posición asumida por las evaluaciones externas implica, según se deduce de lo que a propósito de ellas ha sido enunciado de forma explícita por las instancias administrativas, que los actores de la educación no saben sobre sus estudiantes, no saben qué acciones emprender, ni cómo conducir la institución educativa; entonces, por estas razones, deberían supuestamente someterse a las evaluaciones, esperar sus resultados y ahí sí usar la única información que se considera objetiva —y, por lo tanto, útil— para acometer la labor educativa. Esta posición, por supuesto, conduce a que se produzca cierto tipo de relaciones, ninguna de las cuales parece apuntar a lo que llaman “mejoramiento de la calidad”.
De nuevo, como en los otros casos, se trata de una toma de posición histórica.


4. A manera de conclusión

Algunas de las conclusiones posibles tienen que ver con los efectos, con las implicaciones y con las condiciones de posibilidad.


4.1 Los efectos

No nos preguntamos “para qué evaluar”, pues como estamos en el campo educativo, se presenta la tentación de responder con los buenos propósitos; “para mejorar la calidad”, por ejemplo, sería una de las respuestas esperables. Tomar el asunto por el lado de los efectos luce más interesante como posibilidad de investigación, pues cabe la pregunta por el cómo se producen tales efectos. Nos referimos principalmente a dos:
De un lado, la reproducción de los roles, sin necesidad de hacerse preguntas comprometedoras sobre el saber, sobre la pedagogía, sobre el sujeto, sobre el país que estamos construyendo. Es evidente el rendimiento político que esto tiene para la reproducción de la sociedad.
Y, de otro lado, la invisibilización de determinados procesos que hacen posible que ciertos saberes/maneras de enseñar/maneras de hacer educación hayan ganado —o que pierdan— un lugar en la escuela.


4.2 Las implicaciones

La autoridad educativa concibe que el maestro debería estar mejor formado en las dimensiones disciplinar, pedagógica y política; que las instituciones formadoras de docentes tienen que formar rigurosamente (en esas mismas dimensiones); y que la evaluación externa aporta sustancialmente al campo educativo. Pero,

         ·            promueve la competencia desleal, el “sálvese quien pueda” de las pruebas masivas, el atajo para aprobar las evaluaciones externas, toda vez que ellas se convierten en la manera de medir el trabajo docente… lo cual no apunta al saber del maestro, a las condiciones en las cuales sea necesario para él estar cada vez más a la altura de los debates disciplinares y pedagógicos, en función de la lógica de inserción de los sujetos en tales debates.
         ·            desestimula a las instituciones formadoras de docentes, prácticamente les congela el presupuesto, violenta los procesos propios de cada una y promueve procesos de acreditación con características tales que igualmente dan lugar a los atajos… lo cual le impide mejorar la formación de los docentes.
         ·            entroniza mediante leyes las evaluaciones psicométricas, y las amplía a todo el espectro de la educación (desde el preescolar hasta las carreras universitarias)… lo cual le impide producir las condiciones que considera necesarias, pues desvirtúa el saber construido de manera singular por cada maestro, desvaloriza completamente su juicio evaluativo y reduce su dimensión política a la obediencia.
         ·            impide el debate conceptual sobre las pruebas (los puentes entre la estadística y la psicometría, las decisiones no matemáticas, no matematizables, que es necesario tomar a lo largo de las evaluaciones masivas)… lo cual somete a la comunidad educativa a la dictadura del software estadístico (que manejan muy pocas personas) y de los datos (que hay que mantener en secreto, como condición de la evaluación).


4.3 Las condiciones de posibilidad

Los asuntos sociales no se transforman mediante propósitos. Aunque es necesario tener propósitos para transformarlos. Esta paradoja implica que mientras los propósitos estén más cercanos a las condiciones de posibilidad (las existentes y las que podemos crear*), menos se tratará de idealizaciones que impiden actuar. En esa dirección, preguntamos en qué medida los participantes de la educación estamos dispuestos a subordinar nuestros intereses al propósito formativo (que se supone que también es el nuestro) para poder interrogar la forma como las evaluaciones masivas nos interpelan y las respuestas que damos. Igualmente preguntamos por qué es tan difícil vivir hoy el espacio educativo, de la manera como quisiéramos que fuera el día de mañana, con lo que evitamos el tono de las reflexiones educativas que, centrándose en un deber-ser o concluyendo con uno, idealizan el fin, de forma tal que terminan subvalorando el hacer cotidiano en la escuela, donde no obstante se juega gran parte de nuestra vida. Y, finalmente, nos preguntamos por los rendimientos individuales y sociales de trabajar con la heterogeneidad de los sujetos, de empujarla hacia la especificidad o hacia el “todos iguales” (por ejemplo para poderlos evaluarlos).

Nota:


* Pues la segunda tesis de Marx sobre Feuerbach no ha dejado de estar vigente: «La teoría materialista de que los hombres son producto de las circunstancias y de la educación, y de que por tanto, los hombres modificados son producto de circunstancias distintas y de una educación modificada, olvida que son los hombres, precisamente, los que hacen que cambien las circunstancias y que el propio educador necesita ser educado».