Descripción
En el contexto de la expansión de la inteligencia artificial generativa en el ámbito educativo, la Universidad Nacional de La Matanza desarrolló durante 2024-2025 una experiencia de capacitación docente orientada a la apropiación crítica y pedagógica de herramientas y recursos de IAG. La propuesta se inició con un relevamiento de datos mediante encuestas a docentes, con el objetivo de identificar niveles de conocimiento, usos previos y valoraciones sobre distintas herramientas de IA generativa. La propuesta contempló la elaboración de una guía abierta e interactiva de herramientas de IA generativa que permitiera socializar las herramientas y usos contextualizados de docentes de la UNLaM. Los criterios de valoración fueron los siguientes: facilidad de uso, pertinencia pedagógica, accesibilidad, ética y transparencia, seguridad y privacidad de datos, reproducción de sesgos y estereotipos, desarrollo de habilidades creativas y diseño UX. Como parte del proceso se observa la transición desde usos exploratorios e instrumentales en las etapas iniciales hacia una reflexión más crítica sobre la mediación docente, la evaluación y la producción académica en una etapa posterior. Los resultados muestran una valoración general positiva de las herramientas evaluadas, especialmente en aspectos vinculados con la facilidad de uso, la interacción con el usuario y la calidad de los resultados generados. Entre las herramientas con mayores puntuaciones promedio se destacan Gemini, Copilot, DeepSeek, Gamma y Nano Banana. En primer lugar se ubica Gemini, con una puntuación promedio de 4,22 sobre 5, basada en 4 evaluaciones. En segundo lugar aparece Copilot, con un promedio de 4,09, siendo además una de las herramientas con mayor participación relativa dentro de este grupo, con 9 evaluaciones. En tercer lugar se encuentra DeepSeek, con una puntuación promedio de 4,06, obtenida a partir de 2 evaluaciones, seguida por Gamma, con un promedio de 4,04 basado en 3 evaluaciones. Finalmente, Nano Banana presenta una valoración promedio de 3,94, también a partir de 2 evaluaciones. Si bien estas herramientas presentan las puntuaciones promedio más altas dentro del conjunto analizado, es importante considerar la cantidad de evaluaciones recibidas al interpretar estos resultados. En algunos casos, el número de respuestas es reducido, lo que puede influir en el promedio obtenido. Por esta razón, los resultados deben entenderse como una primera aproximación comparativa más que como un ranking definitivo de desempeño. En este sentido, la puntuación promedio de Chat GPT fue de 3,68, siendo la herramienta con mayor cantidad de evaluaciones (16 respuestas), lo que indica un mayor nivel de uso y conocimiento por parte de los participantes, aunque también incluye mayor diversidad de opiniones. Los resultados presentados se basan en 42 respuestas de docentes de la Universidad Nacional de La Matanza, lo que permite obtener una primera aproximación a los usos y valoraciones de herramientas de inteligencia artificial generativa en este contexto institucional. Se encuentra proyectado para 2026 la realización de una nueva encuesta y un nuevo trayecto de formación y actualización de contenidos y herramientas para explorar en las prácticas docentes.
Palabras clave:
INTELIGENCIA ARTIFICIAL - EDUCACIÓN SUPERIOR - FORMACIÓN DOCENTE