En el artículo anterior reflexionábamos sobre la irrupción de la inteligencia artificial (IA) en la educación y su impacto en la fi gura del docente.
Hoy damos un paso más para mirar un terreno aún más sensible: la evaluación del alumnado.
Porque si enseñar con algoritmos ya plantea dilemas, dejar que la máquina juzgue el aprendizaje humano abre un debate moral de mayor profundidad.
Quisiera compartir en este artículo algunas reflexiones tras la lectura de un estudio reciente, publicado en el International Journal of Educational Technology in Higher Education bajo el título What students really think: unpacking AI ethics in educational assessments through a triadic framework (Lim, Gottipati y Cheong, 2025).
Los investigadores preguntaron a casi 400 universitarios qué piensan sobre el uso de la IA en las evaluaciones académicas y qué dilemas éticos perciben. Desde el inicio, el texto admite la paradoja: “La integración de la inteligencia artificial en la educación ha transformado las evaluaciones, prometiendo una mayor precisión y eficiencia, pero también introduciendo desafíos éticos críticos como el sesgo en la calificación, los riesgos para la privacidad y las brechas de responsabilidad”.
La promesa de eficiencia es real, pero el riesgo de deshumanización también.
Porque una máquina puede calcular, pero no comprender. Y educar (en su sentido más profundo) es precisamente comprender al otro.
Las voces de los jóvenes ofrecen una lección de sentido común. Piden tres cosas muy concretas: transparencia, privacidad y presencia humana.
“Debería explicarse claramente cómo el sistema llega a sus decisiones”, afirman. Quieren entender, no simplemente recibir una nota. Reclaman también su derecho a la intimidad: “Nos preocupa la monitorización constante, las cámaras y la sensación de estar observados por algo que no entendemos”.
Y por encima de todo, piden que el profesor siga estando presente. “El profesor debe seguir estando presente”.
No se oponen a la IA, pero temen una educación sin mirada, sin empatía, sin rostro. En definitiva, reclaman una tecnología al servicio de la relación, no una relación sustituida por la tecnología.
El estudio advierte con claridad: “El mayor riesgo de la IA en la educación es que las decisiones éticas queden conceptualizadas, pero no se traduzcan en acciones concretas”.
La frase resume el peligro más actual:
hablamos mucho de ética, pero dejamos que la decisión la tome el algoritmo.
Desde la fe, este es un problema de raíz antropológica. El Papa León XIV recordaba recientemente que “la verdad no se mide por algoritmos, sino por la conciencia iluminada por Dios” (Veritatem servare).
Y san Juan Pablo II, en Centesimus Annus, advirtió: “Cuando la técnica se emancipa de la ética y de la fe, deja de servir al hombre y comienza a dominarlo.” Una máquina puede evaluar con exactitud, pero no puede amar la verdad ni apiadarse del error. Si dejamos que juzgue sola, convertiremos la educación en una justicia sin rostro: exacta, sí, pero desalmada.
Los autores del estudio proponen una solución sensata: una gobernanza ética por etapas, en la que cada fase del proceso educativo tenga salvaguardas propias.
En el diseño, supervisión humana y datos inclusivos; en la corrección, revisión y explicabilidad; en la vigilancia, respeto a la intimidad. “La ética de la inteligencia artificial debe evolucionar en paralelo con la madurez del sistema educativo y con la responsabilidad de quienes lo aplican”.
Esa propuesta técnica encierra una verdad moral: la prudencia. La prudencia no frena el progreso, sino que lo orienta al bien.
Recordar que el objetivo no es la eficiencia, sino la formación integral de la persona.
Evaluar no es solo medir resultados. Es mirar, acompañar, comprender y, a veces, perdonar. Y eso solo puede hacerlo un ser humano.
El estudio concluye que “la integración responsable de la IA en la educación debe centrarse en la dignidad del aprendiz y en la transparencia del proceso”.
Dicho con palabras cristianas: toda innovación es buena cuando respeta la dignidad del hombre.
Cada alumno es irrepetible, amado por Dios, y su aprendizaje no puede reducirse a un conjunto de datos.
La inteligencia artificial podrá ayudarnos a enseñar mejor, pero no me cansaré de reiterar que sólo el amor (que se expresa en la atención y la presencia) puede educar de verdad.
La gran tarea de nuestro tiempo no es humanizar las máquinas, sino recordar que la educación ya tiene un rostro humano: el del maestro que acompaña y el del alumno que aprende, reflejo del Maestro que enseña desde la cruz.












