4–7 de agosto de 2026
Buenos Aires
America/Argentina/Buenos_Aires zona horaria

Inteligencia Artificial y curaduría humana en los procesos de aseguramiento de la calidad de la educación superior: usos posibles, límites necesarios y condiciones para una gobernanza ética

No programado
20m
Buenos Aires

Buenos Aires

Evaluación y aseguramiento de la calidad en el sistema universitario: políticas, prácticas y culturas evaluativas

Descripción

Las agencias de acreditación y las Instituciones de Educación Superior atraviesan un momento de transformación estructural de sus prácticas y culturas evaluativas, impulsado por la integración acelerada de la Inteligencia Artificial (IA) en los sistemas de aseguramiento de la calidad; esta aceleración, sin precedentes en la historia de la innovación tecnológica, interpela a los actores de la evaluación no con la pregunta de si incorporar estas herramientas, sino con la pregunta más exigente de cómo hacerlo con criterio, responsabilidad ética y plena conciencia de sus límites. La presente ponencia propone un análisis crítico-propositivo articulado en tres ejes: en primer lugar, los usos concretos de la IA en los procesos de acreditación, que incluyen el análisis masivo de datos institucionales mediante técnicas de machine learning, la auditoría documental con procesamiento de lenguaje natural para identificar inconsistencias, vacíos probatorios y desalineaciones respecto a los criterios de evaluación, e incluso, el apoyo a la redacción de borradores de informes técnicos a partir del juicio ya construido por el evaluador; en segundo lugar, la demarcación rigurosa entre tareas automatizables (verificación formal, clasificación de evidencias, síntesis de indicadores cuantitativos, entre otros) y responsabilidades irreductiblemente humanas, como la interpretación del contexto institucional y territorial, la valoración de la pertinencia de un plan de estudios, y la decisión final de acreditación, que constituye un acto de juicio experto de naturaleza pública e indelegable humana; en tercer lugar, los riesgos inherentes a una adopción acrítica: el sesgo algorítmico derivado de datos históricos inequitativos, la opacidad de los sistemas de caja negra que compromete la legitimidad e impugnabilidad del dictamen, y la dependencia tecnológica que erosiona de manera silenciosa pero estructural la capacidad de razonamiento crítico de los evaluadores. A partir de una revisión de la literatura especializada y del análisis de experiencias en IES y agencias latinoamericanas, la ponencia desarrolla una propuesta de gobernanza institucional de cuatro dimensiones: auditoría previa de datos institucionales, implementación piloto escalonada en tareas de bajo riesgo decisional, formación en pensamiento crítico sobre IA, y construcción de políticas explícitas de uso ético que garanticen la transparencia hacia las instituciones evaluadas y la supremacía del juicio humano en toda decisión evaluativa. Se concluye que la curaduría humana, entendida como la facultad del evaluador de determinar qué hallazgos son relevantes, qué contexto los explica y qué transformaciones institucionales son posibles a partir de ellos, constituye el núcleo ético e irreemplazable del aseguramiento de la calidad, y que la integración responsable de la IA solo adquiere sentido cuando contribuye a fortalecer, y no a sustituir, ese juicio situado, experto e irreductiblemente humano.

Palabras clave:

INTELIGENCIA ARTIFICIAL, ASEGURAMIENTO DE LA CALIDAD, ACREDITACIÓN, CURADURÍA HUMANA, GOBERNANZA ÉTICA

Autor

Valeria Eva Burkhard (Universidad Nacional de Mar del Plata)

Materiales de la presentación