La inteligencia artificial (IA) debe dejar de verse como una herramienta casi mágica o una amenaza absoluta y comenzar a integrarse de forma crítica y ética en la educación y la investigación, advirtió Luis Josué Lugo Sánchez , investigador del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CEIICH) de la UNAM.
“La inteligencia artificial tiene límites, sesgos algorítmicos, se trata de una mediación, de un artefacto; no es una deidad, un actor humano y tampoco puede tomar decisiones”, subrayó durante la sesión “Uso ético de la Inteligencia Artificial en la investigación”, realizada en el marco de la Cátedra Extraordinaria de Bioética y organizada por el Programa Universitario de Bioética (PUB).
El especialista llamó a pasar “del acceso a la apropiación” de estas herramientas, es decir, a incorporarlas a los procesos académicos y científicos como parte de prácticas pedagógicas y de investigación éticas, en lugar de responder con miedo, prohibiciones o pánico moral. Se trata, dijo, de avanzar hacia la “coproducción de conocimiento” entre personas e IA.

IA en la UNAM: del uso masivo al reto ético
Lugo Sánchez, también director del Laboratorio de Inteligencia Artificial, Sociedad e Interdisciplina de la UNAM, señaló que la Universidad ya vive un escenario de uso extendido de estas tecnologías. Citó un estudio reciente que muestra que 83% de docentes de bachillerato, 70% de licenciatura y 73% de posgrado recurren a la IA; entre el alumnado, las cifras alcanzan 87% en bachillerato, 81% en licenciatura y 88% en posgrado.
Profesoras y profesores utilizan estos sistemas para obtener información sobre temas que desconocen, buscar datos bibliográficos, diseñar actividades y materiales de aprendizaje o analizar datos. Las y los estudiantes, en tanto, los emplean para resolver dudas, localizar información, estudiar para exámenes u obtener explicaciones adicionales sobre contenidos de clase.

Detectores de plagio: herramientas con altos márgenes de error
Aunque la IA no ha sustituido a la biblioteca, el trabajo de campo ni la investigación experimental, el académico advirtió que ignorar el fenómeno o responder sólo con castigos puede ser contraproducente.
Lugo también alertó sobre las limitaciones de los detectores de plagio y de textos generados por IA. De acuerdo con sus datos, los sistemas antiplagio pueden tener errores de entre 30 y 70%, por lo que no son una solución confiable para vigilar el uso de estas herramientas en entornos académicos.
Además, recordó que existen múltiples modelos —como ChatGPT, Gemini, Mistral, Latam GPT o DeepSeek— con diferentes bases de datos y sesgos, lo que complica aún más cualquier intento de detección automatizada.
Por ello, insistió en que el problema central no es sólo el acceso, sino la alfabetización en inteligencia artificial: aprender a formular instrucciones (prompts), entender cómo funcionan los modelos, reconocer sus límites y evitar reproducir ideas de forma acrítica. El objetivo, sostuvo, debe ser procesar, comprender y “re-reproducir” contenidos desde el pensamiento crítico, generando nuevas posibilidades.

Marcos de gobernanza para la inteligencia artificial
En este contexto, el investigador urgió a construir marcos de gobernanza y regulación, así como programas de acompañamiento para la comunidad académica. La Universidad, afirmó, debe estar presente no sólo con diagnósticos, sino con propuestas concretas: establecer límites y protocolos claros en las aulas, fomentar la colaboración multi e interdisciplinaria, analizar los retos éticos y desarrollar estrategias de sensibilización, concientización y alfabetización en IA.
“La pregunta no es si vamos a usar inteligencia artificial, porque ya está en nuestras aulas y laboratorios”, planteó Lugo. “La pregunta es cómo incorporarla de un modo ético y crítico, de tal manera que el pensamiento creativo, humano, tenga un lugar central”.
