Por Esteve López

No es ninguna novedad afirmar que la inteligencia artificial ya está en las aulas, en nuestras casas, en toda la sociedad. Está presente en la planificación, en los trabajos del alumnado y docentes, y en muchos procesos invisibles del día a día escolar. Sin embargo, en numerosos centros que visito o acompaño todavía cuesta hablar de ello con naturalidad. Hay uso, pero muchas veces no hay marco o espacios concretos de diálogo. Y cuando no hay marco, lo que aparece no es libertad o  podría parecer flexibilidad, sino muchas veces confusión.

En febrero pasado me invitaron a realizar un taller en el EdTech Congress Barcelona, un evento anual que cada vez está teniendo más relevancia en el mundo educativo, coincidiendo con referentes como Mariana Ferrarelli, Carlos Magro y Cristóbal Cobo. El foco del taller estuvo en dar posibles pasos, compartir reflexiones con equipos directivos de centros educativos para ir integrando la IA en sus claustros. Una de las preguntas que estuvo guiando el proceso de preparación del taller fue “¿qué capacidades de nuestro alumnado necesitamos desarrollar antes de poder utilizar la IA con profundidad?” Con esta pregunta, se abre la puerta a pensar en cómo generar una auténtica integración intencional en los centros educativos. Por integración intencional me refiero, como veremos más adelante, al proceso de decidir reflexivamente cómo, cuándo y para qué incorporamos la IA, pero también qué queremos proteger, de manera que ese criterio no quede en decisiones individuales, sino que pueda sostenerse como marco compartido en el centro.

Esta integración parte de un reconocimiento quizás incómodo, pero pienso que necesario: diversos autores defienden que la IA no está creando los grandes retos pedagógicos de nuestro tiempo, solo los está acelerando y haciéndolos visibles. Las preguntas y desafíos sobre evaluación, la asignatura pendiente de la competencia digital docente y el cuidado del desarrollo profesional ya estaban sobre la mesa antes de que los modelos generativos irrumpieran en las aulas. Lo que cambia ahora es que una máquina puede producir, en segundos, trabajos impecables y planificaciones aparentemente brillantes. Se hace evidente qué tareas se apoyaban en un proceso de comprensión y qué tareas se limitaban a pedir un producto final bien presentado. La IA actúa como un espejo: no inventa nuestras debilidades docentes, las refleja sin anestesia. La cuestión de fondo, por tanto, no es la tecnología en sí, sino qué tipo de aprendizaje queremos proteger y potenciar cuando las respuestas fáciles están a un clic.

En muchos centros, la respuesta inicial a esta tensión adopta tres formas reconocibles. Una es la prohibición: se bloquean plataformas, se añaden sanciones y se confía en que el problema desaparezca. Otra es el dejar hacer, donde cada docente decide de manera autónoma, sin un marco compartido, lo que genera incoherencias y desigualdad para el alumnado. Una tercera reacción consiste en “comprar soluciones”: licencias, pilotos y plataformas que prometen gestionar la complejidad mediante tecnología. Estas tres estrategias son comprensibles y, en cierto modo, razonables; pero comparten un límite importante: ninguna construye un criterio pedagógico común ni acompaña de manera sólida al profesorado en la tarea de enseñar y evaluar en la era de la IA. Funcionan como respuestas reactivas, no como un proyecto educativo.

Cuando hablo de integración intencional, propongo otro camino. No parte de la pregunta “¿cuánta IA vamos a usar?”, sino de “¿para qué queremos la IA y qué no estamos dispuestos a delegar?”. Este camino supone que cada centro educativo defina, de manera explícita, directrices y límites: qué usos de la IA son deseables en el trabajo docente (por ejemplo, alivio de burocracia, apoyo a la diferenciación¹1, generación de ejemplos), cuáles están vetados (evaluación automática sin revisión humana, introducción de datos personales de estudiantes en servicios no adecuados) y en qué condiciones y momentos se abre su uso al alumnado. En etapas iniciales, esto puede implicar un enfoque mayoritariamente desenchufado, en el que se trabaja para aprender sobre la IA sin utilizarla directamente: analizando errores, sesgos y límites a partir de materiales preparados por el docente. En etapas posteriores, se puede permitir un uso más autónomo, siempre vinculado a objetivos claros: contrastar información, producir borradores, someter textos generados a una auditoría crítica, por ejemplo.

Esta integración no puede quedar en declaraciones generales, necesita estar anclada en documentos y prácticas concretas de cada centro educativo. Un “contrato social” sobre la IA, trabajado con equipos directivos y claustros, debería existir como pieza clave. En él se explicitarían tres elementos: para qué sí se usará la IA en el proyecto educativo, para qué no se utilizará bajo ninguna circunstancia y qué compromisos asume la dirección para que ese marco sea viable (tiempos de desarrollo profesional, selección de herramientas seguras, espacios de experimentación acompañada). Más allá de su contenido, el valor de este contrato reside en hacer visible algo que, de hecho, ya ocurre en muchos centros educativos: profesorado y alumnado usan IA, pero lo hacen en silencio y sin criterio compartido. Convertir ese uso tácito en una conversación explícita es un acto de liderazgo pedagógico.

El último nivel de concreción: los momentos del aula

La otra cara de esta integración sería pensar en el rediseño del trabajo en el aula, repensar las secuencias de aprendizaje. Si una tarea puede ser resuelta casi por completo por un modelo generativo, el problema no es solo la posibilidad de “hacer trampas”, sino la propia calidad de la tarea. En estos casos, el reto no pasa necesariamente por prohibir la IA, sino por transformarla en objeto de análisis en lugar de autora invisible. Esto implica pedir al alumnado que haga visible su proceso de pensamiento, su metacognición: esquemas previos, borradores, prompts utilizados, decisiones de edición y defensa oral de sus reflexiones. Evaluar productos finales sigue siendo relevante, pero deja de ser suficiente; de hecho ya estaba dejando de ser lo más importante en nuestras aulas. El foco se desplaza hacia la traza de razonamiento, el juicio crítico sobre las respuestas automáticas y la capacidad de reinterpretar y aplicar ideas en contextos nuevos, lo cual siempre ha sido un reto.

Tenemos claro que hay momentos del proceso de aprendizaje en los que renunciar temporalmente a la tecnología no es un gesto tecnófobo, sino una decisión pedagógica. Reservar espacios de escritura a mano, conversación lenta o resolución de problemas sin apoyo de IA permite que el alumnado consolide las capacidades que luego necesitará para dialogar con las herramientas de forma profunda: comprensión de la tarea, persistencia en la incertidumbre, tolerancia al error, capacidad de explicación. Introducir la IA demasiado pronto en el ciclo puede generar la ilusión de competencia, pero no garantiza que haya entendimiento ni criterio. Retrasar su entrada, en cambio, puede asegurar que cuando la IA intervenga en un proceso, encuentre ya estructuras de pensamiento con las que realmente puede cooperar.

Nada de esto es posible sin cuidar el desarrollo profesional del profesorado. La integración requiere tiempo para explorar casos de uso, cometer errores sin miedo, observar a colegas y analizar evidencias de aprendizaje. También exige un cambio de conversación: pasar de preguntarnos “¿qué herramienta nueva hay para utilizar?” a preguntarnos  “¿qué problema pedagógico tenemos y cómo puede ayudarnos la IA a abordarlo sin erosionar nuestra identidad profesional?” El docente deja de ser visto como alguien a quien la IA viene a reemplazar y recupera su papel como arquitecto del entorno de aprendizaje, responsable de decidir qué se puede automatizar y qué no, qué tipo de retroalimentación puede sugerir una máquina y cuál exige una relación humana.

Para las instituciones universitarias y las redes escolares, este enfoque abre un campo fértil de trabajo conjunto. No se trata tanto de diseñar grandes estrategias tecnológicas como de acompañar a los centros en la construcción de marcos propios, situados y siempre revisables. Integrar de forma intencional la IA no promete soluciones rápidas… Ofrece, en cambio, una propuesta de sostener con lucidez algo que la mejor tradición educativa siempre ha defendido: que aprender es un proceso lento, relacional y exigente, y que ninguna herramienta, por poderosa que sea, puede ni debe relevarnos de la responsabilidad de pensar qué queremos que ocurra en ese camino, en ese proceso.

Esteve López es profesor de secundaria y asesor educativo independiente. Acompaña a equipos directivos, líderes intermedios y claustros en procesos de mejora, integrando experiencia de aula y marco teórico. Formado por Proyecto Zero (Harvard) e ISTE en tecnología educativa, ha observado prácticas en centros de Europa y América. Es autor y coordinador en Cuadernos de Pedagogía y coautor del estudio internacional del BID sobre habilidades del siglo XXI (2022). Participa en charlas y procesos de acompañamiento en España y América Latina.

  1. Entendemos por diferenciación la adaptación de las propuestas de enseñanza a las necesidades del alumnado, ajustando apoyos, niveles de complejidad o formas de acceso y expresión, sin renunciar a los objetivos de aprendizaje compartidos. ↩︎