Publicado el: 2026-03-06
La UNESCO ha advertido que la integración de la IA en educación requiere fortalecer el juicio crítico del estudiante, no debilitarlo. Y es que la IA no siempre acierta. A veces inventa datos o simplifica realidades complejas.
La inteligencia artificial ya no es una novedad de feria tecnológica. Está en el teléfono del estudiante, en la laptop del docente y, la verdad es que también está en las tareas que llegan impresas con una redacción impecable. Entonces surge la pregunta incómoda: ¿qué se está evaluando realmente?
No se trata de prohibir herramientas ni de convertir el aula en una sala de vigilancia. Se trata de entender que el aprendizaje cambió. Y cuando cambia el aprendizaje, cambia la evaluación.
1. Evaluar el proceso, no solo el resultado
Un ensayo perfecto puede salir de un generador de texto en cuestión de segundos. Pero el proceso —las ideas iniciales, los borradores, las preguntas que surgieron en clase— no se fabrica tan fácil.
En una escuela pública, por ejemplo, una maestra de Ciencias Sociales decidió pedir a su grupo que entregara capturas de pantalla del diálogo que tuvieron con la IA al preparar un trabajo sobre migración regional. No buscaba “atrapar” a nadie; buscaba entender cómo estaban pensando. El resultado fue revelador: algunos estudiantes copiaban y pegaban sin analizar, mientras otros cuestionaban las respuestas del sistema. Allí estaba la verdadera diferencia.
Evaluar el proceso implica solicitar bitácoras de trabajo, pedir reflexiones personales sobre cómo se utilizó la herramienta y valorar la evolución entre el primer borrador y el último. En fin, observar el camino, no solo la meta.
2. Evaluar el pensamiento crítico frente a la tecnología
La UNESCO ha advertido que la integración de la IA en educación requiere fortalecer el juicio crítico del estudiante, no debilitarlo. Y es que la IA no siempre acierta. A veces inventa datos o simplifica realidades complejas.
Un maestro de bachillerato pidió a su clase contrastar una respuesta generada por IA sobre la historia del conflicto armado con fuentes académicas locales. El ejercicio no fue técnico; fue ético e intelectual. Descubrieron imprecisiones y sesgos. Aprendieron a no creer ciegamente.
Aquí la evaluación puede centrarse en la capacidad para detectar errores en respuestas generadas, el uso de fuentes complementarias confiables y la argumentación propia frente a lo que dice la máquina. Porque, si la IA responde, el estudiante todavía necesita interpretar.
3. Evaluar la autenticidad y la voz personal
Hay textos que suenan demasiado perfectos: frases pulidas, sin titubeos. Pero cuando se conversa con el estudiante, el discurso cambia. Algo no encaja.
La autenticidad se puede evaluar mediante exposiciones orales improvisadas sobre el trabajo entregado, preguntas inesperadas que conecten con la experiencia personal y actividades en clase sin dispositivos.
Un caso interesante ocurrió en una universidad privada. Tras un debate sobre empleo juvenil y automatización, el profesor pidió a los alumnos relacionar el tema con la situación laboral de sus familias. Las respuestas fueron crudas, reales.
4. Evaluar la ética en el uso de la IA
No todo uso es plagio. Pero tampoco todo uso es transparente. En muchos hogares, al ayudar los padres a sus hijos con tareas, descubren que la respuesta salió de la IA. Surge la duda: ¿es trampa o es apoyo?
Las instituciones pueden establecer criterios claros: declarar cuándo y cómo se utilizó IA, diferenciar entre apoyo para investigar y sustitución total del trabajo e incluir rúbricas que valoren el uso responsable de herramientas digitales. Además, conviene hablar abiertamente del tema. Cuando el uso se normaliza, se vuelve más fácil regularlo.
5. Evaluar habilidades humanas que la IA no reemplaza
Creatividad contextual. Empatía. Trabajo colaborativo real. Resolución de conflictos cara a cara.
En una escuela rural, un grupo utilizó IA para diseñar propuestas de mejora ambiental para su comunidad. Sin embargo, la evaluación final no se centró en el documento digital, sino en la presentación frente a líderes locales y en la capacidad de adaptar las propuestas a la realidad económica del cantón. La herramienta apoyó; el criterio humano definió.
Y es que, como señaló el investigador Andreas Schleicher, de la OCDE, el futuro de la educación no radica en competir con las máquinas, sino en potenciar aquello que las máquinas no pueden hacer: comprender contextos humanos complejos.
Entonces, ¿qué queda para el maestro? Queda mucho. Más que nunca: diseñar evaluaciones híbridas, promover debates éticos, integrar tecnología sin ingenuidad y formar criterio.
Tulio Magaña - Consultor, investigador y conferencista