La IA no rompió la educación: la puso en evidencia

La inteligencia artificial generativa no creó un problema nuevo en las aulas; dejó al descubierto fallas antiguas: evaluaciones que premian productos sobre comprensión. Las universidades deben reenfocar su propósito y enseñar juicio, no solo técnicas.

Por Redaccion TD
La IA no rompió la educación: la puso en evidencia

La IA como reveladora, no como culpable

La irrupción de herramientas generativas —capaces de producir ensayos, código o argumentos con sorprendente fluidez— ha desatado un debate intenso en universidades de todo el mundo. Pero más que haber “roto” la educación, la IA ha hecho visible algo que muchas instituciones ya sospechaban: durante demasiado tiempo hemos medido resultados más que proceso, apariencia más que comprensión.

Este no es un fenómeno nuevo. En 1956, en Dartmouth, se acuñó el término “inteligencia artificial”; siete décadas después, los descendientes técnicos de aquel proyecto pueden escribir con una fluidez que a primera vista parece trabajo humano. El problema no es que estos sistemas fallen: es que, cuando fallan, lo hacen de forma plausiblemente correcta, y eso complica identificar cuándo un texto, código o razonamiento refleja comprensión real.

Producción versus juicio: una distinción que importa

La discusión central que trae la IA es conceptual: hay una diferencia irreductible entre producir un resultado y formar un juicio. Un operario puede emplear una herramienta que mejore su eficiencia; un investigador o un profesional debe cultivar la capacidad de notar lo extraordinario, formular preguntas nuevas y sostener la duda productiva. Esos actos transformadores no se externalizan sin pérdida: enseñarlos es formar a quien puede hacerlos.

Los modelos de lenguaje operan con eficacia en el centro consolidado del conocimiento: reutilizan y recombinan lo que la humanidad ya ha dicho. Donde el conocimiento establecido termina y comienzan las preguntas genuinas, esos modelos se quedan cortos. La pregunta que aún no existe en los datos de entrenamiento la puede formular solo una mente dispuesta a situarse en la incertidumbre y a pensar desde allí.

Un ejemplo cotidiano en la universidad

No hace mucho un profesor recibió un borrador pulcro: frases bien construidas, transiciones correctas y un argumento que parecía coherente. Ante una pregunta sencilla sobre por qué una idea seguía a otra, el autor vaciló y describió el texto como quien enumera paquetes: su contenido y propósito, sin demostrar interiorización. El borrador había sido generado por un modelo de lenguaje y editado por el estudiante; lo que faltaba no era la forma, sino el pensamiento vivo.

Esa separación entre fluidez y pensamiento es lo que la IA hace más difícil de ignorar.

Dos respuestas equivocadas que vemos en los campus

Frente a este desafío emergen dos reacciones frecuentes, pero erradas:

  • La prohibición estricta: detectores, códigos de honor, vigilancia. Aunque comprensible, esta ruta es limitada: las herramientas son ubicuas, y la universidad no debería formar graduados que sepan evitar la tecnología más transformadora de su tiempo.

  • La capitulación técnica: transformar la enseñanza en una formación de técnicos para la “economía de la IA”, centrada en qué herramientas usar y qué prompts escribir. Eso podría producir operadores competentes, pero no profesionales con juicio crítico.

Ninguna de estas respuestas defiende lo que debe ser el núcleo de la educación superior: formar mentes capaces de pensar con profundidad y responsabilidad.

Rediseñar la enseñanza: medidas concretas

La alternativa pasa por repensar evaluación y prácticas docentes. Algunas medidas prácticas que pueden aplicarse son:

  • Más trabajo bajo supervisión y en clase: escribir y resolver problemas con la presencia del docente permite observar el proceso de pensamiento, no solo el producto final.

  • Defensa oral de ideas: una conversación de diez minutos puede revelar si un estudiante entiende una afirmación o simplemente la ha producido.

  • Seminarios centrados en preguntas vivas: priorizar tareas que no solo pidan reproducir conocimiento, sino que exijan formular problemas nuevos, argumentar incertidumbres y diseñar experimentos.

  • Transparencia sobre el uso de IA: cuando los estudiantes empleen herramientas generativas, exigir que documenten qué pidieron, qué produjo el sistema, qué conservaron y qué descartaron. El objetivo no es la vigilancia, sino la responsabilidad intelectual y la trazabilidad del proceso.

  • Formación de docentes: actualizar las competencias pedagógicas para evaluar pensamiento crítico y diseñar tareas que no sean triviales de delegar a una máquina.

Lo que dice el mercado laboral y su lección para las universidades

Hay señales claras del mundo laboral que las instituciones no pueden ignorar. Investigadores de Stanford han documentado un descenso relativo en el empleo de trabajadores jóvenes en sectores más expuestos a la IA, mientras que profesionales con más experiencia mantienen mejores posiciones. La lectura es directa: la IA desplaza tareas repetibles, pero no reemplaza el juicio formado con años de práctica.

Por eso la universidad debería intensificar aquello que la máquina no puede sustituir: el desarrollo del criterio profesional, el pensamiento original y la capacidad para trabajar con incertidumbre.

Relevancia para América Latina

En nuestra región, las universidades enfrentan desafíos adicionales: disparidad de recursos, brechas de acceso digital y la necesidad de formar talento capaz de impulsar desarrollo productivo y social. Estas realidades hacen urgente adaptar las recomendaciones al contexto local:

  • Priorizar evaluación formativa en entornos con menos acceso a tecnología personal, para que la enseñanza no quede reducida a lo que puede automatizarse.

  • Capacitar a docentes en diseño de tareas auténticas que conecten con problemas regionales (salud pública, políticas urbanas, educación) donde plantear preguntas nuevas sea imprescindible.

  • Forjar alianzas con empresas y sector público para que las prácticas profesionales demanden juicio y no solo habilidades técnicas de manejo de herramientas.

La región necesita graduados no solo hábiles con software, sino capaces de liderar, preguntar y decidir en contextos complejos.

Conclusión: cuando las respuestas son baratas, el juicio vale más

La llegada de la IA generativa no anula la educación: la somete a una prueba de sinceridad. Si la universidad se definió por producir resultados aparentemente aceptables, la IA hará insostenible esa pretensión. Sobrevivirán las instituciones que acepten la evidencia y reorganicen sus prácticas para poner el énfasis en formar juicio, responsabilidad intelectual y capacidad para preguntar.

En un mundo donde las respuestas fáciles abundan, la educación vuelve a deber su valor a aquello que ninguna máquina puede aprender en nuestro lugar: el juicio formado por la experiencia, la reflexión y la valentía de pensar lo que aún no está escrito.

Fuente original: El Pais IA