Tecnología

UNAM pide marcos éticos para el uso de inteligencia artificial en aulas e investigación

La inteligencia artificial no es una deidad ni un sustituto del criterio humano, advirtió el investigador universitario

IA en la educación y la academia
IA en la educación y la academia UNAM pide marcos éticos para el uso de inteligencia artificial en aulas e investigación

La inteligencia artificial (IA) debe dejar de verse como una herramienta casi mágica o una amenaza absoluta y comenzar a integrarse de forma crítica y ética en la educación y la investigación, advirtió Luis Josué Lugo Sánchez , investigador del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CEIICH) de la UNAM.

La inteligencia artificial tiene límites, sesgos algorítmicos, se trata de una mediación, de un artefacto; no es una deidad, un actor humano y tampoco puede tomar decisiones”, subrayó durante la sesión “Uso ético de la Inteligencia Artificial en la investigación”, realizada en el marco de la Cátedra Extraordinaria de Bioética y organizada por el Programa Universitario de Bioética (PUB).

El especialista llamó a pasar “del acceso a la apropiación” de estas herramientas, es decir, a incorporarlas a los procesos académicos y científicos como parte de prácticas pedagógicas y de investigación éticas, en lugar de responder con miedo, prohibiciones o pánico moral. Se trata, dijo, de avanzar hacia la “coproducción de conocimiento” entre personas e IA.

Anuncian plataforma TECgpt
Pidn marcos éticos para el uso de inteligencia artificial en aulas (Freepik)

IA en la UNAM: del uso masivo al reto ético

Lugo Sánchez, también director del Laboratorio de Inteligencia Artificial, Sociedad e Interdisciplina de la UNAM, señaló que la Universidad ya vive un escenario de uso extendido de estas tecnologías. Citó un estudio reciente que muestra que 83% de docentes de bachillerato, 70% de licenciatura y 73% de posgrado recurren a la IA; entre el alumnado, las cifras alcanzan 87% en bachillerato, 81% en licenciatura y 88% en posgrado.


Profesoras y profesores utilizan estos sistemas para obtener información sobre temas que desconocen, buscar datos bibliográficos, diseñar actividades y materiales de aprendizaje o analizar datos. Las y los estudiantes, en tanto, los emplean para resolver dudas, localizar información, estudiar para exámenes u obtener explicaciones adicionales sobre contenidos de clase.

IFE 2025
IFE 2025 La conferencia inaugural abordó el tema "Inteligencia Artificial en la Educación: Expectativa vs Realidad" (Freepik)

Detectores de plagio: herramientas con altos márgenes de error

Aunque la IA no ha sustituido a la biblioteca, el trabajo de campo ni la investigación experimental, el académico advirtió que ignorar el fenómeno o responder sólo con castigos puede ser contraproducente.

Lugo también alertó sobre las limitaciones de los detectores de plagio y de textos generados por IA. De acuerdo con sus datos, los sistemas antiplagio pueden tener errores de entre 30 y 70%, por lo que no son una solución confiable para vigilar el uso de estas herramientas en entornos académicos.

Además, recordó que existen múltiples modelos —como ChatGPT, Gemini, Mistral, Latam GPT o DeepSeek— con diferentes bases de datos y sesgos, lo que complica aún más cualquier intento de detección automatizada.

Por ello, insistió en que el problema central no es sólo el acceso, sino la alfabetización en inteligencia artificial: aprender a formular instrucciones (prompts), entender cómo funcionan los modelos, reconocer sus límites y evitar reproducir ideas de forma acrítica. El objetivo, sostuvo, debe ser procesar, comprender y “re-reproducir” contenidos desde el pensamiento crítico, generando nuevas posibilidades.

plagio en el uso de la IA
plagio en el uso de la IA

Marcos de gobernanza para la inteligencia artificial

En este contexto, el investigador urgió a construir marcos de gobernanza y regulación, así como programas de acompañamiento para la comunidad académica. La Universidad, afirmó, debe estar presente no sólo con diagnósticos, sino con propuestas concretas: establecer límites y protocolos claros en las aulas, fomentar la colaboración multi e interdisciplinaria, analizar los retos éticos y desarrollar estrategias de sensibilización, concientización y alfabetización en IA.

La pregunta no es si vamos a usar inteligencia artificial, porque ya está en nuestras aulas y laboratorios”, planteó Lugo. “La pregunta es cómo incorporarla de un modo ético y crítico, de tal manera que el pensamiento creativo, humano, tenga un lugar central”.

Tags

Lo Último