Lo que aprendí enseñando
Egresada de la carrera de Mercadotecnia con especialidad en Comunicaciones, con posgrado en Educación. Profesionista con una sólida trayectoria en docencia y liderazgo educativo, combinando la enseñanza con roles directivos. Experiencia en el desarrollo de habilidades sociales y estrategias de inteligencia emocional en el ámbito educativo y corporativo. Certificada como Coach Ontológico Empresarial.
En noviembre de 2022, los medios anunciaban el lanzamiento de una herramienta que transformaría la interacción entre la inteligencia artificial y el lenguaje natural. Así surgió la inteligencia artificial generativa (IAG), un modelo capaz de predecir secuencias de palabras a partir de millones de parámetros entrenados, generando textos coherentes y contextualizados (García-Peñalvo, 2023). Más que un chatbot, ChatGPT se consolidó rápidamente como una herramienta capaz de redactar, traducir, resolver problemas y sostener diálogos con un estilo sorprendentemente humano (Mejía, 2025).
Muchos docentes no dimensionamos de inmediato el impacto que esta tecnología tendría en la educación, particularmente en temas como la autoría y la evaluación. Un semestre después, en 2023, observé mejoras evidentes en la redacción de los estudiantes: textos mejor estructurados, menos errores y entregas más rápidas. Llegué a pensar que algo estábamos haciendo muy bien como docentes, hasta que un alumno me mostró la herramienta que utilizaban para producir esos textos. La fluidez de sus respuestas resultaba inquietante; más que una tecnología, parecía un diálogo con otra persona. Irónicamente, fue un estudiante quien me enseñó a usarla.
Desde entonces, la evolución de la IAG entre docentes ha sido desigual. Para algunos es una aliada; para otros, una amenaza. La resistencia inicial se debió al temor a la sustitución del trabajo docente y al uso indebido por parte de los alumnos. Muchos profesores recurrimos a detectores de IA con la esperanza de recuperar certezas, pero la investigación reciente demuestra que estas herramientas no son infalibles y pueden incluso acusar injustamente a estudiantes (Perelman, 2023; Liang et al., 2023). La propia OpenAI ha reconocido que sus clasificadores no deben usarse como prueba definitiva en contextos educativos (OpenAI, 2023).
¡Sigue nuestro canal de WhatsApp para más noticias! Únete aquí
Quizá el problema no sea la falta de detectores perfectos, sino el modelo de evaluación que privilegia únicamente el producto final. Cada vez más docentes coincidimos en que la solución está en rediseñar las prácticas: solicitar borradores, escuchar explicaciones orales y acompañar el proceso de escritura resulta más efectivo que confiar en un algoritmo (McGee, 2023). Pretender combatirla con detectores aún perfectibles es como intentar detener una ola con las manos.
Hoy el desafío no es personalizar el uso de la herramienta, sino diseñar actividades que representen un verdadero reto para los estudiantes, donde la IA se utilice con un propósito educativo explícito y ético. Concebirla como un recurso oculto solo fomenta el miedo y la desconfianza. Integrarla implica reconocer sus ventajas —optimización del tiempo, planeación de estrategias y apoyo a distintos ritmos de aprendizaje—, pero también asumir sus riesgos, como la dependencia excesiva.
Más que preguntarnos si la inteligencia artificial es buena o mala para la educación, la pregunta central es cómo usarla con sentido pedagógico. No reemplaza al docente, pero sí lo obliga a repensar su rol como guía y formador del pensamiento crítico. Lo que aprendí enseñando es que ignorarla amplía la brecha entre la escuela y el mundo de nuestros estudiantes; asumirla con criterio, en cambio, fortalece la esencia educativa desde una postura consciente, ética y acorde con nuestro tiempo.
no te pierdas estas noticias









